Mathematik
Refine
Year of publication
Document Type
- Article (108)
- Doctoral Thesis (75)
- Preprint (42)
- diplomthesis (39)
- Book (25)
- Report (22)
- Conference Proceeding (18)
- Bachelor Thesis (8)
- Diploma Thesis (8)
- Contribution to a Periodical (7)
Has Fulltext
- yes (364)
Is part of the Bibliography
- no (364)
Keywords
- Kongress (6)
- Kryptologie (5)
- Mathematik (5)
- Stochastik (5)
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
- Online-Publikation (4)
- Statistik (4)
- Finanzmathematik (3)
- LLL-reduction (3)
Institute
- Mathematik (364)
- Informatik (54)
- Präsidium (21)
- Physik (6)
- Psychologie (6)
- Geschichtswissenschaften (5)
- Sportwissenschaften (5)
- Biochemie und Chemie (3)
- Biowissenschaften (3)
- Geographie (3)
Nur eine Institution, die sich verändern kann, kann auch bestehen – das gilt mit Sicherheit im besonderen Maße für Bildungseinrichtungen. Veränderungen können jedoch in unterschiedlichem Gewand daherkommen. Manche geschehen unerwartet und verursachen dadurch vielleicht Probleme, andere hingegen bahnen sich so langsam an, dass ihre Effekte geradezu überraschend wirken können. Die in ihrer Geschwindigkeit unerwartete Einführung des Praxissemesters in der ersten, universitären Phase der Lehrerausbildung in Hessen ist eine solche problematische Veränderung für die Hessische Schülerakademie (Oberstufe), weil sie deren bisher gültige Integration in die schulpraktischen Studienanteile der studentischen BetreuerInnen nicht mehr vorsieht – ein Umstand, der Akademieleitung und Kuratorium ebenso wie unsere Kooperationspartner an der Universität und im Kultusministerium jetzt schon seit über zwei Jahren intensiv beschäftigt.
Wer gern mitzählt, wird vielleicht festgestellt haben, dass im Sommer 2017 die zwanzigste Hessische Schülerakademie stattfand – dreizehn Oberstufenakademien waren es seit 2004, sieben für die Mittelstufe kamen seit 2011 hinzu. Zwanzig erfolgreiche Akademien bieten nicht nur Anlass zur Freude, sie bilden auch die solide Grundlage für einen selbstbewussten Blick in die Zukunft. Im nächsten Frühjahr lädt daher die Akademie Burg Fürsteneck gemeinsam mit dem Hessischen Kultusministerium zu einem interdisziplinären Symposium ein, bei dem die Hessische Schülerakademie und das Programm KulturSchule im Mittelpunkt stehen: Unter dem Titel "Kulturelle Bildung auf dem Weg" beschäftigen sich vom 2. bis zum 4. März 2018 Fachleute aus Wissenschaft und Praxis auf Burg Fürsteneck mit den "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen".
Das Akademiejahr 2018 hatte neben den beiden Schülerakademien für die Mittelstufe und die Oberstufe noch einen weiteren Höhepunkt: das Symposium "Kulturelle Bildung auf dem Weg" (vom 2. bis 4. März 2018, ausgerichtet von Burg Fürsteneck gemeinsam mit dem Schulentwicklungsprogramm KulturSchule des Hessischen Kultusministeriums und dem Weiterbildungsmaster Kulturelle Bildung an Schulen der Uni Marburg). Es wurde von unserem Schirmherrn, Kultusminister Prof. Dr. R. Alexander Lorz, eröffnet und hatte unter anderem das Ziel, in der Begegnung von Bildungsexpert*innen und -praktiker*innen eine Fachdebatte über "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen" anzustoßen.
Kaum ein Name ist so eng mit dem "Projekt HSAKA" verbunden wie der von Wolf Aßmus: Seit der ersten Hessischen Schülerakademie für die Oberstufe im Jahre 2004 ist er als Leiter des Physik-Kurses dabei; die Gründung der Mittelstufenakademie 2011 wurde von ihm tatkräftig unterstützt und gefördert; einen Sitz im Kuratorium hat er ebenso übernommen wie das Amt des Ersten Vorsitzenden des Trägervereins von Burg Fürsteneck – der inzwischen pensionierte Professor für Festkörperphysik verkörpert geradezu die Idee vom "Un-Ruhestand". Wer mag es ihm da verübeln, wenn Wolf beschließt, im nächsten Sommer mal mehr Zeit mit seinen Enkeln zu verbringen, statt auf die Burg zu fahren? Weil es daher 2020 zum ersten Mal eine Oberstufenakademie ohne Wolf und ohne Physik-Kurs geben wird (stattdessen Philosophie und Informatik), haben wir auf der vergangenen Akademie die Gelegenheit genutzt, Wolf für 15 Jahre Schülerakademie zu danken. Genauer gesagt: für 15 Jahre, 16 Fachkurse in Physik (15 auf der Oberstufenakademie und einer bei der Mittelstufe), 15 kursübergreifende Naturkunde-Angebote, für die Betreuung Dutzender Studierender und weit über 200 Schüler*innen, für unzählige gemeinsame Aha-Erlebnisse und humorvolle Geschichten, für unermüdliches Engagement und geduldigen Beistand – und nicht zuletzt für viele, viele Liter Speiseeis. Unsere Dankbarkeit wollen wir hier mit allen Leser*innen dieser Dokumentation teilen.
Als wir im Herbst 2015 auf den Homepages von BURG FÜRSTENECK und der Schülerakademie unsere Ausschreibung für die Akademie 2016 veröffentlichten, ahnten wir noch nicht, dass wir uns weitere Werbung mit dem jährlichen Flyer, den wir zum Jahreswechsel an die hessischen Gymnasien und Gesamtschulen mit gymnasialen Zweig versenden, hätten (fast) sparen können. Zu unserer Überraschung und großer Freude zählten wir bereits im Februar 2016 "58" Anmeldungen von Schülerinnen und Schülern. Die Werbung hat uns im Anschluss über 20 weitere Bewerbungen beschert und in die unangenehme Situation gebracht, (zu) vielen Schülerinnen und Schülern absagen bzw. sie auf das nächste Jahr vertrösten zu müssen.
Das Zusammentreffen zu Beginn der Sommerferien von 60 wissbegierigen und experimentierfreudigen Schülerinnen und Schülern mit einem ebensolchen Team aus Hochschullehrenden und Kulturschaffenden, versprach wie immer eine intensive und aufregende Zeit zu werden. Diese positive Erwartung wurde auch voll erfüllt und gipfelte am Gästenachmittag mit Eltern, Verwandten, Freunden und interessierten Besuchern in einen feierlich-fröhlichen Abschluss mit spannenden und auch überraschenden Werkschauen der Kurse. Ein besonderes Highlight war die großformatige Gestaltung eines Modells der BURG FÜRSTENECK als interdisziplinäres Ergebnis des Hauptkurses Mathematik und des Wahlkurses Modellbau.
Die Erfahrung, "…dass alles auch ganz anders sein könnte" ist die wohl wichtigste Erfahrung in Bildungsprozessen. Die Entdeckung von Möglichkeiten, Perspektivwechseln und transformatorischen Selbst-Bildungsprozessen ist zentral für eine gelungene kulturelle Bildungssituation. (Birgit Mandel, 2005).
Die Hessischen Schülerakademien zur Förderung besonders engagierter und begabter junger Menschen wurden bewusst als ein Unterfangen des Forschenden Lernens gegründet und fühlen sich diesem Leitgedanken im Kontext kultureller Bildung verpflichtet. Dieser Satz klingt zunächst einmal gut und zeitgemäß. Doch was steckt genau dahinter?
Wir konnten unseren eigenen Weg gehen, jeder von uns hatte am Ende ein anderes Ergebnis und es war keines falsch. Das macht für mich die Qualität beim Lernen aus, dass mir genug Platz für meine Gedanken gegeben wird und ich ernst genommen werde. […] Dieses Gefühl ist bis heute nicht verloren gegangen und der Gedanke, wie es sein könnte, hilft mir, aus mir raus zukommen und andere zu motivieren, das ebenfalls zu tun, um auch um mich herum anregende Gespräche zu führen, die an die während der Akademie geführten heranreichen. (Feedback einer Teilnehmerin der HSAKA-M 2018)
Bildung durch Wissenschaft im Sinne des Forschenden Lernens ist ein zentrales Thema schulischer Bildung und findet beispielsweise im Konzept Kultur.Forscher! eine didaktische, schulische Umsetzung und wird vom Wissenschaftsrat als Leitgedanke ebenfalls für Universitäten mit dem Ziel empfohlen, Studium und Lehre deutlicher an der Forschung auszurichten.
[Nachruf] Wolfgang Schwarz
(2013)
Based on the quadratic residuosity assumption we present a non-interactive crypto-computing protocol for the greater-than function, i.e., a non-interactive procedure between two parties such that only the relation of the parties' inputs is revealed. In comparison to previous solutions our protocol reduces the number of modular multiplications significantly. We also discuss applications to conditional oblivious transfer, private bidding and the millionaires' problem.
We propose a fast variant of the Gaussian algorithm for the reduction of two dimensional lattices for the l1-, l2- and l-infinite- norm. The algorithm runs in at most O(nM(B) logB) bit operations for the l-infinite- norm and in O(n log n M(B) logB) bit operations for the l1 and l2 norm on input vectors a, b 2 ZZn with norm at most 2B where M(B) is a time bound for B-bit integer multiplication. This generalizes Schönhages monotone Algorithm [Sch91] to the centered case and to various norms.
We consider versions of the FIND algorithm where the pivot element used is the median of a subset chosen uniformly at random from the data. For the median selection we assume that subsamples of size asymptotic to c⋅nα are chosen, where 0<α≤12, c>0 and n is the size of the data set to be split. We consider the complexity of FIND as a process in the rank to be selected and measured by the number of key comparisons required. After normalization we show weak convergence of the complexity to a centered Gaussian process as n→∞, which depends on α. The proof relies on a contraction argument for probability distributions on càdlàg functions. We also identify the covariance function of the Gaussian limit process and discuss path and tail properties.
Viewing of ambiguous stimuli can lead to bistable perception alternating between the possible percepts. During continuous presentation of ambiguous stimuli, percept changes occur as single events, whereas during intermittent presentation of ambiguous stimuli, percept changes occur at more or less regular intervals either as single events or bursts. Response patterns can be highly variable and have been reported to show systematic differences between patients with schizophrenia and healthy controls. Existing models of bistable perception often use detailed assumptions and large parameter sets which make parameter estimation challenging. Here we propose a parsimonious stochastic model that provides a link between empirical data analysis of the observed response patterns and detailed models of underlying neuronal processes. Firstly, we use a Hidden Markov Model (HMM) for the times between percept changes, which assumes one single state in continuous presentation and a stable and an unstable state in intermittent presentation. The HMM captures the observed differences between patients with schizophrenia and healthy controls, but remains descriptive. Therefore, we secondly propose a hierarchical Brownian model (HBM), which produces similar response patterns but also provides a relation to potential underlying mechanisms. The main idea is that neuronal activity is described as an activity difference between two competing neuronal populations reflected in Brownian motions with drift. This differential activity generates switching between the two conflicting percepts and between stable and unstable states with similar mechanisms on different neuronal levels. With only a small number of parameters, the HBM can be fitted closely to a high variety of response patterns and captures group differences between healthy controls and patients with schizophrenia. At the same time, it provides a link to mechanistic models of bistable perception, linking the group differences to potential underlying mechanisms.
For genus g=2i≥4 and the length g−1 partition μ=(4,2,…,2,−2,…,−2) of 0, we compute the first coefficients of the class of D¯¯¯¯(μ) in PicQ(R¯¯¯¯g), where D(μ) is the divisor consisting of pairs [C,η]∈Rg with η≅OC(2x1+x2+⋯+xi−1−xi−⋯−x2i−1) for some points x1,…,x2i−1 on C. We further provide several enumerative results that will be used for this computation.
For genus g=2i≥4 and the length g−1 partition μ=(4,2,…,2,−2,…,−2) of 0, we compute the first coefficients of the class of D¯¯¯¯(μ) in PicQ(R¯¯¯¯g), where D(μ) is the divisor consisting of pairs [C,η]∈Rg with η≅OC(2x1+x2+⋯+xi−1−xi−⋯−x2i−1) for some points x1,…,x2i−1 on C. We further provide several enumerative results that will be used for this computation.
For genus g=2i≥4 and the length g−1 partition μ=(4,2,…,2,−2,…,−2) of 0, we compute the first coefficients of the class of D¯¯¯¯(μ) in PicQ(R¯¯¯¯g), where D(μ) is the divisor consisting of pairs [C,η]∈Rg with η≅OC(2x1+x2+⋯+xi−1−xi−⋯−x2i−1) for some points x1,…,x2i−1 on C. We further provide several enumerative results that will be used for this computation.
For genus g=2i≥4 and the length g−1 partition μ=(4,2,…,2,−2,…,−2) of 0, we compute the first coefficients of the class of D¯¯¯¯(μ) in PicQ(R¯¯¯¯g), where D(μ) is the divisor consisting of pairs [C,η]∈Rg with η≅OC(2x1+x2+⋯+xi−1−xi−⋯−x2i−1) for some points x1,…,x2i−1 on C. We further provide several enumerative results that will be used for this computation.
We contribute to the foundations of tropical geometry with a view toward formulating tropical moduli problems, and with the moduli space of curves as our main example. We propose a moduli functor for the moduli space of curves and show that it is representable by a geometric stack over the category of rational polyhedral cones. In this framework, the natural forgetful morphisms between moduli spaces of curves with marked points function as universal curves.
Our approach to tropical geometry permits tropical moduli problems—moduli of curves or otherwise—to be extended to logarithmic schemes. We use this to construct a smooth tropicalization morphism from the moduli space of algebraic curves to the moduli space of tropical curves, and we show that this morphism commutes with all of the tautological morphisms.
A multiple filter test for the detection of rate changes in renewal processes with varying variance
(2014)
The thesis provides novel procedures in the statistical field of change point detection in time series.
Motivated by a variety of neuronal spike train patterns, a broad stochastic point process model is introduced. This model features points in time (change points), where the associated event rate changes. For purposes of change point detection, filtered derivative processes (MOSUM) are studied. Functional limit theorems for the filtered derivative processes are derived. These results are used to support novel procedures for change point detection; in particular, multiple filters (bandwidths) are applied simultaneously in oder to detect change points in different time scales.
This work is concerned with two topics at the intersection of convex algebraic geometry and optimization.
We develop a new method for the optimization of polynomials over polytopes. From the point of view of convex algebraic geometry the most common method for the approximation of polynomial optimization problems is to solve semidefinite programming relaxations coming from the application of Positivstellensätze. In optimization, non-linear programming problems are often solved using branch and bound methods. We propose a fused method that uses Positivstellensatz-relaxations as lower bounding methods in a branch and bound scheme. By deriving a new error bound for Handelman's Positivstellensatz, we show convergence of the resulting branch and bound method. Through the application of Positivstellensätze, semidefinite programming has gained importance in polynomial optimization in recent years. While it arises to be a powerful tool, the underlying geometry of the feasibility regions (spectrahedra) is not yet well understood. In this work, we study polyhedral and spectrahedral containment problems, in particular we classify their complexity and introduce sufficient criteria to certify the containment of one spectrahedron in another one.
In this article we use techniques from tropical and logarithmic geometry to construct a non-Archimedean analogue of Teichmüller space T¯g whose points are pairs consisting of a stable projective curve over a non-Archimedean field and a Teichmüller marking of the topological fundamental group of its Berkovich analytification. This construction is closely related to and inspired by the classical construction of a non-Archimedean Schottky space for Mumford curves by Gerritzen and Herrlich. We argue that the skeleton of non-Archimedean Teichmüller space is precisely the tropical Teichmüller space introduced by Chan–Melo–Viviani as a simplicial completion of Culler–Vogtmann Outer space. As a consequence, Outer space turns out to be a strong deformation retract of the locus of smooth Mumford curves in T¯g.
We reconsider estimates for the heat kernel on weighted graphs recently found by Metzger and Stollmann. In the case that the weights satisfy a positive lower bound as well as a finite upper bound, we obtain a specialized lower estimate and a proper generalization of a previous upper estimate. Reviews: Math. Rev. 1979406, Zbl. Math. 0934.46042
The existence of a mean-square continuous strong solution is established for vector-valued Itö stochastic differential equations with a discontinuous drift coefficient, which is an increasing function, and with a Lipschitz continuous diffusion coefficient. A scalar stochastic differential equation with the Heaviside function as its drift coefficient is considered as an example. Upper and lower solutions are used in the proof.
We study the following problem: given x element Rn either find a short integer relation m element Zn, so that =0 holds for the inner product <.,.>, or prove that no short integer relation exists for x. Hastad, Just Lagarias and Schnorr (1989) give a polynomial time algorithm for the problem. We present a stable variation of the HJLS--algorithm that preserves lower bounds on lambda(x) for infinitesimal changes of x. Given x \in {\RR}^n and \alpha \in \NN this algorithm finds a nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no very short relation exists for points \bar{x} within half the x'--distance from x. On the other hand if x'=x then m is, up to a factor 2^{n/2}, a shortest integer relation for \mbox{x.} Our algorithm uses, for arbitrary real input x, at most \mbox{O(n^4(n+\log \alpha))} many arithmetical operations on real numbers. If x is rational the algorithm operates on integers having at most \mbox{O(n^5+n^3 (\log \alpha)^2 + \log (\|q x\|^2))} many bits where q is the common denominator for x.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
Therapy evasion – and subsequent disease progression – is a major challenge in current oncology. An important role in this context seems to be played by various forms of cancer cell dormancy. For example, therapy-induced dormancy, over short timescales, can create serious obstacles to aggressive treatment approaches such as chemotherapy, and long-term dormancy may lead to relapses and metastases even many years after an initially successful treatment. The underlying dormancy-related mechanisms are complex and highly diverse, so that the analysis even of basic patterns of the population-level consequences of dormancy requires abstraction and idealization, as well as the identification of the relevant specific scenarios.
In this paper, we focus on a situation in which individual cancer cells may switch into and out of a dormant state both spontaneously as well as in response to treatment, and over relatively short time-spans. We introduce a mathematical ‘toy model’, based on stochastic agent-based interactions, for the dynamics of cancer cell populations involving individual short-term dormancy, and allow for a range of (multi-drug) therapy protocols. Our analysis shows that in our idealized model, even a small initial population of dormant cells can lead to therapy failure under classical (and in the absence of dormancy successful) single-drug treatments. We further investigate the effectiveness of several multidrug regimes (manipulating dormant cancer cells in specific ways) and provide some basic rules for the design of (multi-)drug treatment protocols depending on the types and parameters of dormancy mechanisms present in the population.
The main subject of this survey are Belyi functions and dessins d'enfants on Riemann surfaces. Dessins are certain bipartite graphs on 2-mainfolds defining there are conformal and even an algebraic structure. In principle, all deeper properties of the resulting Riemann surfaces or algebraic curves should be encoded in these dessins, but the decoding turns out to be difficult and leads to many open problems. We emphasize arithmetical aspects like Galois actions, the relation to the ABC theorem in function filds and arithemtic questions in uniformization theory of algebraic curves defined over number fields.
Gleichungen mit mehreren Unbekannten zu lösen, üben Schüler schon in der Mittelstufe. Für die einen ist es eine spannende mathematische Knobelei, für die anderen eher Quälerei. Doch den wenigsten ist bewusst, wie viele Leben dadurch jeden Tag gerettet werden. Die moderne medizinische Bildgebung beruht darauf, sehr viele Gleichungen nach sehr vielen Unbekannten aufzulösen.
We consider Schwarz maps for triangles whose angles are rather general rational multiples of pi. Under which conditions can they have algebraic values at algebraic arguments? The answer is based mainly on considerations of complex multiplication of certain Prym varieties in Jacobians of hypergeometric curves. The paper can serve as an introduction to transcendence techniques for hypergeometric functions, but contains also new results and examples.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
We determine that the continuous-state branching processes for which the genealogy, suitably time-changed, can be described by an autonomous Markov process are precisely those arising from $\alpha$-stable branching mechanisms. The random ancestral partition is then a time-changed $\Lambda$-coalescent, where $\Lambda$ is the Beta-distribution with parameters $2-\alpha$ and $\alpha$, and the time change is given by $Z^{1-\alpha}$, where $Z$ is the total population size. For $\alpha = 2$ (Feller's branching diffusion) and $\Lambda = \delta_0$ (Kingman's coalescent), this is in the spirit of (a non-spatial version of) Perkins' Disintegration Theorem. For $\alpha =1$ and $\Lambda$ the uniform distribution on $[0,1]$, this is the duality discovered by Bertoin & Le Gall (2000) between the norming of Neveu's continuous state branching process and the Bolthausen-Sznitman coalescent.
We present two approaches: one, exploiting the `modified lookdown construction', draws heavily on Donnelly & Kurtz (1999); the other is based on direct calculations with generators.
The problem of unconstrained or constrained optimization occurs in many branches of mathematics and various fields of application. It is, however, an NP-hard problem in general. In this thesis, we examine an approximation approach based on the class of SAGE exponentials, which are nonnegative exponential sums. We examine this SAGE-cone, its geometry, and generalizations. The thesis consists of three main parts:
1. In the first part, we focus purely on the cone of sums of globally nonnegative exponential sums with at most one negative term, the SAGE-cone. We ex- amine the duality theory, extreme rays of the cone, and provide two efficient optimization approaches over the SAGE-cone and its dual.
2. In the second part, we introduce and study the so-called S-cone, which pro- vides a uniform framework for SAGE exponentials and SONC polynomials. In particular, we focus on second-order representations of the S-cone and its dual using extremality results from the first part.
3. In the third and last part of this thesis, we turn towards examining the con- ditional SAGE-cone. We develop a notion of sublinear circuits leading to new duality results and a partial characterization of extremality. In the case of poly- hedral constraint sets, this examination is simplified and allows us to classify sublinear circuits and extremality for some cases completely. For constraint sets with certain conditions such as sets with symmetries, conic, or polyhedral sets, various optimization and representation results from the unconstrained setting can be applied to the constrained case.
In this paper we deal with an implementation as well as numerical experiments for the coupling of interior and exterior problems of the elastodynamic wave equation with transparent boundary conditions in 3D as described in a previous paper by this author. In more detail, the FEM‐BEM‐coupling as well as the time discretization by using leapfrog and convolution quadrature is considered. Our aim is to provide an insight into the necessary steps of the implementation. Based on this, we present numerical experiments for a non‐convex domain and analyze the errors.
Several novel imaging and non-destructive testing technologies are based on reconstructing the spatially dependent coefficient in an elliptic partial differential equation from measurements of its solution(s). In practical applications, the unknown coefficient is often assumed to be piecewise constant on a given pixel partition (corresponding to the desired resolution), and only finitely many measurement can be made. This leads to the problem of inverting a finite-dimensional non-linear forward operator F: D(F)⊆Rn→Rm , where evaluating ℱ requires one or several PDE solutions.
Numerical inversion methods require the implementation of this forward operator and its Jacobian. We show how to efficiently implement both using a standard FEM package and prove convergence of the FEM approximations against their true-solution counterparts. We present simple example codes for Comsol with the Matlab Livelink package, and numerically demonstrate the challenges that arise from non-uniqueness, non-linearity and instability issues. We also discuss monotonicity and convexity properties of the forward operator that arise for symmetric measurement settings.
This text assumes the reader to have a basic knowledge on Finite Element Methods, including the variational formulation of elliptic PDEs, the Lax-Milgram-theorem, and the Céa-Lemma. Section 3 also assumes that the reader is familiar with the concept of Fréchet differentiability.
We analyse a continued fraction algorithm (abbreviated CFA) for arbitrary dimension n showing that it produces simultaneous diophantine approximations which are up to the factor 2^((n+2)/4) best possible. Given a real vector x=(x_1,...,x_{n-1},1) in R^n this CFA generates a sequence of vectors (p_1^(k),...,p_{n-1}^(k),q^(k)) in Z^n, k=1,2,... with increasing integers |q^{(k)}| satisfying for i=1,...,n-1 | x_i - p_i^(k)/q^(k) | <= 2^((n+2)/4) sqrt(1+x_i^2) |q^(k)|^(1+1/(n-1)) By a theorem of Dirichlet this bound is best possible in that the exponent 1+1/(n-1) can in general not be increased.
The synchronization of neuronal firing activity is considered an important mechanism in cortical information processing. The tendency of multiple neurons to synchronize their joint firing activity can be investigated with the 'unitary event' analysis (Grün, 1996). This method is based on the nullhypothesis of independent Bernoulli processes and can therefore not tell whether coincidences observed between more than two processes can be considered "genuine" higher- order coincidences or whether they might be caused by coincidences of lower order that coincide by chance ("chance coincidences"). In order to distinguish between genuine and chance coincidences, a parametric model of independent interaction processes (MIIP) is presented. In the framework of this model, Maximum-Likelihood estimates are derived for the firing rates of n single processes and for the rates with which genuine higher order correlations occur. The asymptotic normality of these estimates is used to derive their asymptotic variance and in order to investigate whether higher order coincidences can be considered genuine or whether they can be explained by chance coincidences. The empirical test power of this procedure for n=2 and n=3 processes and for finite analysis windows is derived with simulations and compared to the asymptotic values. Finally, the model is extended in order to allow for the analysis of correlations that are caused by jittered coincidences.
Die Populationsgenetik beschäftigt sich mit dem Einfluss von zufälliger Reproduktion, Rekombination, Migration, Mutation und Selektion auf die genetische Struktur einer Population.
In dieser Arbeit mit dem englischen Titel "Ancestral lines under mutation and selection" wird das Zusammenspiel von zufälliger Reproduktion, gerichteter Selektion und Zweiwegmutation untersucht.
Dazu betrachten wir eine haploide Population in der jedes Individuum zu jedem Zeitpunkt genau einen von zwei Typen aus S:={0,1} trägt. Dabei sei 1 der neutrale und 0 der selektiv bevorzugte Typ. Im Diffusionslimes sehr großer Populationen modellieren wir den Prozess der Frequenz der Typ-0-Individuen durch eine Wright-Fisher-Diffusion X:=(X_t) mit Mutation und gerichteter Selektion.
Zu jedem Zeitpunkt s gibt es genau ein Individuum, dessen Nachkommen ab einem bestimmten zukünftigen Zeitpunkt t>s die gesamte Population ausmachen werden. Wir nennen dieses Individuum den gemeinsamen Vorfahren zum Zeitpunkt s, da alle Individuen zu allen Zeitpunkten r>t von ihm abstammen. Sei R_{s} dessen Typ zum Zeitpunkt s. Wir nehmen an, dass der Prozess X zum Zeitpunkt 0 im Gleichgewicht ist und definieren die Wahrscheinlichkeit, dass der gemeinsame Vorfahre zum Zeitpunkt 0 Typ 0 hat, durch h(x):= P(R_{0}=0|X_{0}=x). Eine Darstellung von h(x) wurde bereits von Fearnhead (2002) und Taylor (2007) gefunden und dort mit vorwiegend analytischen Methoden bewiesen. In dieser Arbeit entwickeln wir in Kapitel 3 ein neues Teilchenbild, den pruned lookdown ancestral selection graph (pruned LD-ASG), der für sich selbst genommen interessant ist und eine neue probabilistische Interpretation der Darstellung von h(x) liefert.
Durch Erweiterung des Teilchenbildes auf Nachkommenverteilungen mit schweren Tails und mit Hilfe einer Siegmund Dualität gelingt es uns in Kapitel 4 das Resultat für h(x) von klassischen Wright-Fisher-Diffusionen auf Lambda-Wright-Fisher-Diffuison zu erweitern.
Eine Verbindung zwischen Ideen von Taylor (2007), der den gemeinsamen Prozess (X,R) untersucht hat, und einem von Fearnhead (2002) betrachteten Prozess (R,V), der die Entwicklung des Typs R des gemeinsamen Vorfahren in einer Umgebung von V sogenannten virtuellen Linien beschreibt, stellen wir in Kapitel 6 her. Wir bestimmen die gemeinsame Dynamik des Tripels (X,R,V). In Kapitel 7 betrachten wir ein diskretes Bild mit endlicher Populationsgröße N und schlagen dort eine Brücke zu Resultaten von Kluth, Hustedt und Baake (2013).
Des Weiteren entwickeln wir in Kapitel 5 dieser Arbeit einen Algorithmus zur Simulation der Typen einer Stichprobe von m Individuen, die aus einer Wright-Fisher-Population mit Mutation und Selektion im Gleichgewicht gezogen wird. Mittels dieses Algorithmus illustrieren wir die Typenverteilung für verschiedene Parameterwerte und Stichprobengrößen.
Given a real vector alpha =(alpha1 ; : : : ; alpha d ) and a real number E > 0 a good Diophantine approximation to alpha is a number Q such that IIQ alpha mod Zk1 ", where k \Delta k1 denotes the 1-norm kxk1 := max 1id jx i j for x = (x1 ; : : : ; xd ). Lagarias [12] proved the NP-completeness of the corresponding decision problem, i.e., given a vector ff 2 Q d , a rational number " ? 0 and a number N 2 N+ , decide whether there exists a number Q with 1 Q N and kQff mod Zk1 ". We prove that, unless ...
Approximating Perpetuities
(2006)
A perpetuity is a real valued random variable which is characterised by a distributional fixed-point equation of the form X=AX+b, where (A,b) is a vector of random variables independent of X, whereas dependencies between A and b are allowed. Conditions for existence and uniqueness of solutions of such fixed-point equations are known, as is the tail behaviour for most cases. In this work, we look at the central area and develop an algorithm to approximate the distribution function and possibly density of a large class of such perpetuities. For one specific example from the probabilistic analysis of algorithms, the algorithm is implemented and explicit error bounds for this approximation are given. At last, we look at some examples, where the densities or at least some properties are known to compare the theoretical error bounds to the actual error of the approximation. The algorithm used here is based on a method which was developed for another class of fixed-point equations. While adapting to this case, a considerable improvement was found, which can be translated to the original method.
The purpose of the present paper is to explain the fake projective plane constructed by J. H. Keum from the point of view of arithmetic ball quotients. Beside the ball quotient associated with the fake projective plane, we also analize two further naturally related ball quotients whose minimal desingularizations lead to two elliptic surfaces, one already considered by J. H. Keum as well as the one constructed by M. N. Ishida in terms of p-adic uniformization.
2000 Mathematics Subject Classification: 11F23,14J25,14J27
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Wir führen eine neue Unterklasse der Fourier Hyperfunktionen mit polynomialen Wachstumsbedingungen ein mit dem Ziel, asymptotische Entwicklungen von Hyperfunktionen studieren zu wollen, wie sie für gewisse Distributionenklassen bekannt sind. Wir entwickeln zuerst die Theorie analytischer Funktionale auf Räumen integrabler Funktionen bezüglich Maßen mit Wachstum O(|Re z|^gamma), wobei gamma in R ist, im Unendlichen. Ein an das berühmte Phragmén-Lindelöf-Prinzip erinnerndes, einfaches analytisches Resultat bildet die Basis der Dualitätstheorie dieser Räume zu Funktionen mit festgelegtem Wachstumstyp. Wir studieren diese Dualität analytischer Funktionale mit Wachstumsbedingungen und unbeschränkten Trägern gründlich in einer Dimension unter Verwendung des von den Fourier Hyperfunktionen her bekannten exponentiell abfallenden Cauchy-Hilbert-Kerns. Daraus ergeben sich Analoga zu den Theoremen von Runge und Mittag-Leffler, die die Grundlage für die Garbentheorie der Hyperfunktionen mit polynomialen Wachstumsbedingungen sind, die wir sodann entwickeln. Die für uns wichtigsten neuen Klassen von Fourier Hyperfunktionen sind die von unendlichem Typ, das heißt solche, die wie eine beliebige Potenz wachsen beziehungsweise schneller als jede Potenz abfallen. In n Dimensionen benutzen wir die Fouriertransformation und Dualität um das Verhältnis dieser temperierten beziehungsweise asymptotischen Hyperfunktionen zu bekannten Distributionenräumen zu studieren. Wir leiten Theoreme vom Paley-Wiener-Typ her, die es uns erlauben, unsere Hyperfunktionen in ein Schema zu ordnen, das Wachstumsordnung und Singularität gegenüberstellt. Wir zeigen, daß dieses Schema eine sinvolle Erweiterung des von Gelfand und Shilow zur Charakterisierung von Testfunktionenräumen eingeführten Schemas der Räume S(alpha,beta) um verallgemeinerte Funktionen ist. Schließlich zeigen wir die Nuklearität der temperierten und asymptotischen Hyperfunktionen. Wir zeigen, daß die asymptotischen Hyperfunktionen genau die Klasse bilden, die Moment-asymptotische Entwicklungen erlauben, wie sie von Estrada et al. für Distributionen betrachtet wurden. Estradas Theorie ist damit ein Spezialfall der unsrigen. Für Hyperfunktionen lassen sich aber dank des Konzeptes der standard definierenden Funktionen die Moment-asymptotischen Entwicklungen als klassische asymptotische Entwicklungen von analytischen Funktionen verstehen. Wir zeigen die einfache Beziehung zwischen der Moment-asymptotischen Entwicklung und der Taylorentwicklung der Fouriertransformierten und benutzen dann ein Resultat von Estrada, um die Vollständigkeit unseres Moment-asymptotischen Schemas abzuleiten. Wir geben genaue Bedingungen für die Moment-Folgen von Hyperfunktionen mit kompaktem Träger an, die kürzlich von Kim et al. gefunden wurden. Die asymptotischen Entwicklungen übertragen wir auf den höherdimensionalen Fall, indem wir die von Kaneko und Takiguchi eingeführte Radontransformation für Hyperfunktionen verwenden. Die wohlbekannte Beziehung zwischen Radon- und Fouriertransformation zeigt wiederum das enge Verhältnis von asymptotischer Entwicklung zur Taylorentwicklung der Fouriertransformierten. Wir benutzen Kims Resultate, um die Moment-Folgen von Hyperfunktionen zu charakterisieren, die von Kugeln mit endlichem Radius getragen werden. Schließlich verwenden wir das Träger-Theorem der Radontransformation, um ein Resultat über das Singularitätenspektrum aus Bedingungen an die Radontransformierte abzuleiten.
We introduce algorithms for lattice basis reduction that are improvements of the famous L3-algorithm. If a random L3-reduced lattice basis b1,b2,...,bn is given such that the vector of reduced Gram-Schmidt coefficients ({µi,j} 1<= j< i<= n) is uniformly distributed in [0,1)n(n-1)/2, then the pruned enumeration finds with positive probability a shortest lattice vector. We demonstrate the power of these algorithms by solving random subset sum problems of arbitrary density with 74 and 82 many weights, by breaking the Chor-Rivest cryptoscheme in dimensions 103 and 151 and by breaking Damgard's hash function.
Dessins d'enfants (children's drawings) may be defined as hypermaps, i.e. as bipartite graphs embedded in compact Riemann surfaces. They are very important objects in order to describe the surface of the embedding as an algebraic curve. Knowing the combinatorial properties of the dessin may, in fact, help us determining defining equations or the field of definition of the surface. This task is easier if the automorphism group of the dessin is "large". In this thesis we consider a special type of dessins, so-called Wada dessins, for which the underlying graph illustrates the incidence structure of points and of hyperplanes of projective spaces. We determine under which conditions they have a large orientation-preserving automorphism group. We show that applying algebraic operations called "mock" Wilson operations to the underlying graph we may obtain new dessins. We study the automorphism group of the new dessins and we show that the dessins we started with are coverings of the new ones.
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Die Mathematik ist gleichermaßen eine Kulturwissenschaft mit langer Tradition als auch treibende Kraft hinter vielen modernen Technologien und damit Schlüsseldisziplin des Informationszeitalters. Zum einen zielt die Mathematik darauf ab, abstrakte Strukturen und ihre Zusammenhänge zu verstehen; zum anderen entwickelt sie kraftvolle Methoden, um Frage- und Problemstellungen in zahlreichen Wissenschaftsdisziplinen zu behandeln. Moderne Anwendungen der Mathematik liegen beispielsweise in den Bereichen der Datensicherheit und -kompression, der Verkehrssteuerung, der Bewertung und Optimierung von Finanzinstrumenten oder der medizinischen Operationsplanung.
In dieser Broschüre stellen wir Ihnen das Profil der Frankfurter Mathematik in Forschung und Lehre sowie speziell die Studiengänge
• Bachelor Mathematik
• Master Mathematik
vor. An der Goethe-Universität ist es auch möglich, Mathematik auf Lehramt (L1, L2, L3, L5) zu studieren. ...
In dem Artikel ,,Zur Axiomatik der Mengenlehre" habe ich die Axiome, die sich mit den Gebieten der Äquivalenz, der Mengenteilung und Mengenuergleichung beschäftigen, einer Erörterung unterzogen. An zwei Resultate dieses Artikels knüpfe ich hier an. Erstens einmal, da die in ihm durchgeführten Untersuchungen auf die Elemente der Mengen gar nicht eingehen, so stellen sie, allgemein gesprochen, axiomatische Betrachtungen über Größen und Größenbeziehungen dar, an denen die Mengen ja Teil haben; und zweitens hatte eine der dort analysierten Beziehungen den Gedanken nahegelegt, auch Größen entgegengesetzter Art (resp. Mengen von zweierlei Art von Elementen) in Betracht zu ziehen, und auf sie die oben genannten Operationen auszudehnen. Hier nun gebe ich im folgenden einige Ergänzungen. Bereits a. a. O.war bemerkt worden, daß es naturgemäß der Untersuchung bedarf, ob für die so charakterisierten Mengen die weiteren allgemeinen Sätze der Cantorschen Theorie in Kraft bleiben. Inzwischen hat mir Herr A. Fränkel mitgetelt, daß für das von mir konstruierte Beispiel schon ein Teil der in meinem Artikel zugrunde gelegten Axiome versagt; und zwar ein Teil der Axiome über Teilmengen. Über Teilmengen habe ich zwei Axiome an die Spitze gestellt. ......
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
Black box cryptanalysis applies to hash algorithms consisting of many small boxes, connected by a known graph structure, so that the boxes can be evaluated forward and backwards by given oracles. We study attacks that work for any choice of the black boxes, i.e. we scrutinize the given graph structure. For example we analyze the graph of the fast Fourier transform (FFT). We present optimal black box inversions of FFT-compression functions and black box constructions of collisions. This determines the minimal depth of FFT-compression networks for collision-resistant hashing. We propose the concept of multipermutation, which is a pair of orthogonal latin squares, as a new cryptographic primitive that generalizes the boxes of the FFT. Our examples of multipermutations are based on the operations circular rotation, bitwise xor, addition and multiplication.
Let b1, . . . , bm 2 IRn be an arbitrary basis of lattice L that is a block Korkin Zolotarev basis with block size ¯ and let ¸i(L) denote the successive minima of lattice L. We prove that for i = 1, . . . ,m 4 i + 3 ° 2 i 1 ¯ 1 ¯ · kbik2/¸i(L)2 · ° 2m i ¯ 1 ¯ i + 3 4 where °¯ is the Hermite constant. For ¯ = 3 we establish the optimal upper bound kb1k2/¸1(L)2 · µ3 2¶m 1 2 1 and we present block Korkin Zolotarev lattice bases for which this bound is tight. We improve the Nearest Plane Algorithm of Babai (1986) using block Korkin Zolotarev bases. Given a block Korkin Zolotarev basis b1, . . . , bm with block size ¯ and x 2 L(b1, . . . , bm) a lattice point v can be found in time ¯O(¯) satisfying kx vk2 · m° 2m ¯ 1 ¯ minu2L kx uk2.
We generalize the concept of block reduction for lattice bases from l2-norm to arbitrary norms. This extends the results of Schnorr. We give algorithms for block reduction and apply the resulting enumeration concept to solve subset sum problems. The deterministic algorithm solves all subset sum problems. For up to 66 weights it needs in average less then two hours on a HP 715/50 under HP-UX 9.05.
In der folgenden Arbeit werden Eigenschaften von Verzweigungsprozessen in zufälliger Umgebung (engl. branching processes in random environment, kurz BPREs) untersucht. Das Modell geht auf Smith (1969) und Athreya (1971) zurück. Ein BPRE ist ein einfaches mathematisches Modell für die Entwicklung einer Population von apomiktischen (d.h. sich ungeschlechtlich fortpflanzenden) Individuen in diskreter Zeit, wobei die Umgebungsbedingungen einen Einfluß auf den Fortpflanzungserfolg der Individuen haben. Dabei wird angenommen, dass die Umgebungsbedingungen in den einzelnen Generationen zufällig sind, und zwar unabhängig und identisch verteilt von Generation zu Generation. Man denke z.B. an eine Population von Pflanzen mit einem einjährigen Zyklus, die in jedem Jahr anderen Witterungsbedingungen ausgesetzt sind, wobei angenommen wird, dass diese sich unabhängig und identisch verteilt ändern. In Kapitel 1 wird eines der wichtigsten Hilfsmittel zur Beschreibung von BPREs, die sogenannte zugehörige Irrfahrt, eingeführt und die Klassifizierung von BPREs beschrieben. In Kapitel 2 werden bekannte Resultate, insbesondere zu kritischen, schwach subkritischen und stark subkritischen Verzweigungsprozessen, wiederholt. In Kapitel 3 wird der sogenannte intermediär subkritische Fall behandelt. Mithilfe von funktionalen Grenzwertsätzen für bedingte Irrfahrten wird die genaue Asymptotik der Überlebenswahrscheinlichkeit des Prozesses, die bereits in Vatutin (2004) bewiesen wurde, unter etwas allgemeineren Voraussetzungen gezeigt. Anschließend wird untersucht, wie häufig der Prozess, bedingt auf Überleben, nur noch aus einem Individuum besteht. Im letzten Teil des Kapitels wird ein funktionaler Grenzwertsatz für die zugehörige Irrfahrt, bedingt aufs Überleben des Prozesses, gezeigt. Diese konvergiert, richtig skaliert, gegen einen Levy-Prozess, der darauf bedingt ist, sein Minimum am Ende anzunehmen. In Kapitel 4 werden große Abweichungen von BPREs untersucht. Die Ratenfunktion des BPRE wird sowohl für den Fall mindestens geometrisch schnell abfallender Tails, als auch für den Fall von Nachkommenverteilungen mit schweren Tails bestimmt. Wie sich herausstellt, hängt die Ratenfunktion von der Ratenfunktion der zugehörigen Irrfahrt, der exponentiellen Abfallrate der Überlebenswahrscheinlichkeit sowie, bei Nachkommenverteilungen mit schweren Tails, auch von den Tails derselben ab. In der Ratenfunktion spiegeln sich die wahrscheinlichsten Wege, um Ereignisse der großen Abweichungen zu realisieren, wider, was in Kapitel 4.3 beschrieben wird. In Kapitel 4.4 wird im speziellen Fall von Nachkommenverteilungen mit gebrochen-linearer Erzeugendenfunktion die Ratenfunktion für Ereignisse bestimmt, bei denen ein superkritischer BPRE überlebt, aber klein im Vergleich zum Erwartungswert bleibt. In Kapitel 4.5 werden die großen Abweichungen, bedingt auf die Umgebung untersucht (engl. quenched). In diesem Fall können unwahrscheinliche Ereignisse nur über den Verzweigungsmechanismus und nicht mehr über eine außergewöhnliche Umgebung realisiert werden. Zum Abschluss der Dissertation werden Verzweigungsprozesse in zufälliger Umgebung, bedingt auf Überle-ben, simuliert. Dazu wird eine Konstruktion nach Geiger (1999) angewendet. Diese erlaubt es, Galton-Watson Bäume in variierender Umgebung, bedingt auf Überleben, entlang einer Ahnenlinie zu konstruieren. Der Fall geometrischer Nachkommenverteilungen, auf den wir uns in Kapitel 5 beschränken, erlaubt die explizite Berechnung der benötigten Verteilungen. Als Anwendung des Grenzwertsatzes aus Kapitel 3.1 können nun intermediär subkritische Verzweigungsprozesse, bedingt auf Überleben, wie folgt simuliert werden: Zunächst wird die Umgebung zufällig bestimmt, und zwar als Irrfahrt, bedingt darauf ihr Minimum am Ende anzunehmen. Anschließend wird, der Geiger-Konstruktion folgend, ein Verzweigungsprozess in dieser Umgebung, bedingt auf Überleben, simuliert. Zum Abschluss wird in einem kurzen Ausblick auf aktuelle Forschung verwiesen. Im Anhang befinden sich einige technische Resultate.
We prove that the projectivized strata of differentials are not contained in pointed Brill-Noether divisors, with only a few exceptions. For a generic element in a stratum of differentials, we show that many of the associated pointed Brill-Noether loci are of expected dimension. We use our results to study the Auel-Haburcak Conjecture: We obtain new non-containments between maximal Brill-Noether loci in Mg. Our results regarding quadratic differentials imply that the quadratic strata in genus 6 are uniruled.
Affine Bruhat--Tits buildings are geometric spaces extracting the combinatorics of algebraic groups. The building of PGL parametrizes flags of subspaces/lattices in or, equivalently, norms on a fixed finite-dimensional vector space, up to homothety. It has first been studied by Goldman and Iwahori as a piecewise-linear analogue of symmetric spaces. The space of seminorms compactifies the space of norms and admits a natural surjective restriction map from the Berkovich analytification of projective space that factors the natural tropicalization map. Inspired by Payne's result that the analytification is the limit of all tropicalizations, we show that the space of seminorms is the limit of all tropicalized linear embeddings ι:Pr↪Pn and prove a faithful tropicalization result for compactified linear spaces. The space of seminorms is in fact the tropical linear space associated to the universal realizable valuated matroid.
Finanzderivate gelten als obskur, verwickelt und riskant. Und das nicht zu Unrecht, wie die aktuelle Krise der globalen Finanzmärkte zeigt. Um Finanzderivate richtig bewerten zu können, bedarf es ausgefeilter Methoden der Finanzmathematik. Ausgelöst durch den explosionsartigen Anstieg des Derivatehandels hat sich die Mathematik zu einer Schlüsseltechnologie auf modernen Finanzmärkten entwickelt. Sie stellt den Finanzakteuren das mathematische Werkzeug für ihr Risikomanagement zur Verfügung.
Can variances of latent variables be scaled in such a way that they correspond to eigenvalues?
(2017)
The paper reports an investigation of whether sums of squared factor loadings obtained in confirmatory factor analysis correspond to eigenvalues of exploratory factor analysis. The sum of squared factor loadings reflects the variance of the corresponding latent variable if the variance parameter of the confirmatory factor model is set equal to one. Hence, the computation of the sum implies a specific type of scaling of the variance. While the investigation of the theoretical foundations suggested the expected correspondence between sums of squared factor loadings and eigenvalues, the necessity of procedural specifications in the application, as for example the estimation method, revealed external influences on the outcome. A simulation study was conducted that demonstrated the possibility of exact correspondence if the same estimation method was applied. However, in the majority of realized specifications the estimates showed similar sizes but no correspondence.
This work proposes to employ the (bursty) GLO model from Bingmer et. al (2011) to model the occurrence of tropical cyclones. We develop a Bayesian framework to estimate the parameters of the model and, particularly, employ a Markov chain Monte Carlo algorithm. This also allows us to develop a forecasting framework for future events.
Moreover, we assess the default probability of an insurance company that is exposed to claims that occur according to a GLO process and show that the model is able to substantially improve actuarial risk management if events occur in oscillatory bursts.
We present a new self-contained and rigorous proof of the smoothness of invariant fiber bundles for dynamic equations on measure chains or time scales. Here, an invariant fiber bundle is the generalization of an invariant manifold to the nonautonomous case. Our main result generalizes the “Hadamard-Perron theorem” to the time-dependent, infinite-dimensional, noninvertible, and parameter-dependent case, where the linear part is not necessarily hyperbolic with variable growth rates. As a key feature, our proof works without using complicated technical tools.
The work presented in this thesis is devoted to two classes of mathematical population genetics models, namely the Kingman-coalescent and the Beta-coalescents. Chapters 2, 3 and 4 of the thesis include results concerned with the first model, whereas Chapter 5 presents contributions to the second class of models.
We call a vector x/spl isin/R/sup n/ highly regular if it satisfies =0 for some short, non-zero integer vector m where <...> is the inner product. We present an algorithm which given x/spl isin/R/sup n/ and /spl alpha//spl isin/N finds a highly regular nearby point x' and a short integer relation m for x'. The nearby point x' is 'good' in the sense that no short relation m~ of length less than /spl alpha//2 exists for points x~ within half the x'-distance from x. The integer relation m for x' is for random x up to an average factor 2/sup /spl alpha//2/ a shortest integer relation for x'. Our algorithm uses, for arbitrary real input x, at most O(n/sup 4/(n+log A)) many arithmetical operations on real numbers. If a is rational the algorithm operates on integers having at most O(n/sup 5/+n/sup 3/(log /spl alpha/)/sup 2/+log(/spl par/qx/spl par//sup 2/)) many bits where q is the common denominator for x.
Concentration of multivariate random recursive sequences arising in the analysis of algorithms
(2006)
Stochastic analysis of algorithms can be motivated by the analysis of randomized algorithms or by postulating on the sets of inputs of the same length some probability distributions. In both cases implied random quantities are analyzed. Here, the running time is of great concern. Characteristics like expectation, variance, limit law, rates of convergence and tail bounds are studied. For the running time, beside the expectation, upper bounds on the right tail are particularly important, since one wants to know large values of the running time not taking place with possibly high probability. In the first chapter game trees are analyzed. The worst case runnig time of Snir's randomized algorithm is specified and its expectation, asymptotic behavior of the variance, a limit law with uniquely characterized limit and tail bounds are identified. Furthermore, a limit law for the value of the game tree under Pearl's probabilistic modell is proved. In the second chapter upper and lower bounds for the Wiener Index of random binary search trees are identified. In the third chapter tail bounds for the generation size of multitype Galton-Watson processes (with immigration) are derived, depending on their offspring distribution. Therefore, the method used to prove the tail bounds in the first chapter is generalized.
Condensing phenomena for systems biology, ecology and sociology present in real life different complex behaviors. Based on local interaction between agents, we present another result of the Energy-based model presented by [20]. We involve an additional condition providing the total condensing (also called consensus) of a discrete positive measure. Key words: Condensing; consensus; random move; self-organizing groups; collective intelligence; stochastic modeling. AMS Subject Classifications: 81T80; 93A30; 37M05; 68U20
In this work, we extend the Hegselmann and Krause (HK) model, presented in [16] to an arbitrary metric space. We also present some theoretical analysis and some numerical results of the condensing of particles in finite and continuous metric spaces. For simulations in a finite metric space, we introduce the notion "random metric" using the split metrics studies by Dress and al. [2, 11, 12].
Let G be a Fuchsian group containing two torsion free subgroups defining isomorphic Riemann surfaces. Then these surface subgroups K and alpha-Kalpha exp(-1) are conjugate in PSl(2,R), but in general the conjugating element alpha cannot be taken in G or a finite index Fuchsian extension of G. We will show that in the case of a normal inclusion in a triangle group G these alpha can be chosen in some triangle group extending G. It turns out that the method leading to this result allows also to answer the question how many different regular dessins of the same type can exist on a given quasiplatonic Riemann surface.
Bipartite graphs occur in many parts of mathematics, and their embeddings into orientable compact surfaces are an old subject. A new interest comes from the fact that these embeddings give dessins d’enfants providing the surface with a unique structure as a Riemann surface and algebraic curve. In this paper, we study the (surprisingly many different) dessins coming from the graphs of finite cyclic projective planes. It turns out that all reasonable questions about these dessins — uniformity, regularity, automorphism groups, cartographic groups, defining equations of the algebraic curves, their fields of definition, Galois actions — depend on cyclic orderings of difference sets for the projective planes. We explain the interplay between number theoretic problems concerning these cyclic ordered difference sets and topological properties of the dessin like e.g. the Wada property that every vertex lies on the border of every cell.
Okamoto (Crypto 1992) hat die RSA-Repräsentation als Basis eines gegen aktive Angreifer sicheren Identifikationsschemas eingeführt. Eine RSA- Repräsentation von X E Z * N ist ein Paar (x; r) E Z e x Z * N mit X = g x r e (mod N) für vorgegebenes g E ZN , RSA-Modul N und primen RSA- Exponenten e. Das zugehörige Repräsentationsproblem, also das Auffinden eines Wertes X samt zweier verschiedener Darstellungen, ist äquivalent zum RSA-Problem, der Berechnung einer e-ten Wurzel von g modulo N . Von Brassard, Chaum und Crépeau (Journal Computing System Science, 1988) sowie Damgard (Journal of Cryptology, 1995) stammt eine analoge Konstruktion der Form X = g x r 2 t (mod N) mit x E Z 2 t für den Spezialfall der Blum-Zahlen als Modul N und gegebenes t größer gleich 1, wo die Möglichkeit, zwei verschiedene Repräsentationen zu berechnen, gleichbedeutend zur Zerlegung des Moduls in die Primfaktoren ist. Im ersten Abschnitt der vorliegenden Arbeit verallgemeinern wir dieses Konzept systematisch auf beliebige (RSA-)Module durch die Einführung eines Anpassungsparameters r:= r (N ), so dass X = g x r 2 r t (mod N) mit x E Z 2 t. Basierend auf dieser als Faktorisierungsrepräsentation bezeichneten Darstellung leiten wir Identifikations-, Signatur- und Blinde-Unterschriften-Verfahren her. Im zweiten Teil verwenden wir sowohl RSA- als auch Faktorisierungsrepräsentation als Grundlage sogenannter non-malleable Commitment-Schemata zur Hinterlegung (Verbriefung) einer geheimen Nachricht. Bei dem von Dolev, Dwork und Naor (SIAM Journal on Computing, 2000) eingeführten Begriff der Non-Malleability soll ein Angreifer außer Stande sein, die Hinterlegung einer Nachricht m so abzuändern, dass er diese später dann mit einem in Relation zu m stehenden Wert, man denke zum Beispiel an m 1, aufdecken kann. Von Dolev, Dwork und Naor stammt ein allgemeiner Ansatz zur Konstruktion von non-malleable Commitment-Schemata aufbauend auf einem sogenannten Knowledge-Extraktor. Für die RSA-Darstellung verfügt das von Okamoto entworfene Protokoll als Proof-Of-Knowledge über einen solchen Extraktor, bei dem im Fall der Faktorisierungsrepräsentation von uns entwickelten Verfahren fehlt allerdings der Extraktor. Aus diesem Grund stellen wir mit Hilfe des Chinesischen Restsatzes ein neues, auf Commitments zugeschnittenes Protokoll mit Knowledge-Extraktor vor, das in Verbindung mit der Faktorisierungsrepräsentation ein effizientes Hinterlegungsschema ergibt. Zum Abschluß wird bei einem Commitment- Verfahren mit abgeschwächter Non-Malleability-Eigenschaft von Di Crescenzo, Katz, Ostrovsky und Smith (Eurocrypt 2001) die RSA- durch die Faktorisierungsrepräsentation ersetzt und das Schema vereinfacht.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Deformation quantization on symplectic stacks and applications to the moduli of flat connections
(2008)
It is a common problem in mathematical physics to describe and quantize the Poisson algebra on a symplectic quotient [...] given in terms of some moment map [...] on a symplectic manifold [...] with a hamiltonian action by a Lie group G. Among others, problems may arise in two parts of the process: c might be a singular value of the moment map and the quotient might not be well-behaving; in the interesting cases the quotient often is singular. By the famous result of Sjamaar and Lerman ([102]) X is a symplectic stratified space. We are interested in cases for which we can give a deformation quantization of the possibly singular Poisson algebra of X. To that purpose we introduce a Poisson algebra on the associated stack [...] for special cases and consider its deformations and their classification. We dedicate ourselves to use the rather geometric methods introduced by Fedosov for symplectic manifolds in [37]. That leads to the question how to perform differential geometry on a smooth stack. The Lie groupoid atlas of a smooth stack is a nice model for the same space (Tu, Xu and Laurent-Gengoux in [107] and Behrend and Xu in [16]), but both have different topoi. We give a morphism (P,R) that compares the topologies of a smooth stack and its atlas. This yields a method to transport sheaves and their sections between a smooth stack and its Lie groupoid atlas. A symplectic stack is a smooth separated Deligne-Mumford stack with a 2-form which is closed and non-degenerate in an atlas. Via (P,R) a deformation quantization on a symplectic stack can be performed in terms of an atlas. We also give a classification functor for the quantizations in the spirit of Deligne ([35]) based on the geometric interpretation given by Gutt and Rawnsely in [49]. As an application we give a deformation quantization for the moduli stack of flat connections in particular configurations. We use Darboux charts provided by Huebschmann (e.g. in [54]) to construct the corresponding Lie groupoid. This captures the symplectic form arising in the reduction process and differs from other approaches using gerbes of bundles (e.g. Teleman [105]).
Algorithms for the Maximum Cardinality Matching Problem which greedily add edges to the solution enjoy great popularity. We systematically study strengths and limitations of such algorithms, in particular of those which consider node degree information to select the next edge. Concentrating on nodes of small degree is a promising approach: it was shown, experimentally and analytically, that very good approximate solutions are obtained for restricted classes of random graphs. Results achieved under these idealized conditions, however, remained unsupported by statements which depend on less optimistic assumptions.
The KarpSipser algorithm and 1-2-Greedy, which is a simplified variant of the well-known MinGreedy algorithm, proceed as follows. In each step, if a node of degree one (resp. at most two) exists, then an edge incident with a minimum degree node is picked, otherwise an arbitrary edge is added to the solution.
We analyze the approximation ratio of both algorithms on graphs of degree at most D. Families of graphs are known for which the expected approximation ratio converges to 1/2 as D grows to infinity, even if randomization against the worst case is used. If randomization is not allowed, then we show the following convergence to 1/2: the 1-2-Greedy algorithm achieves approximation ratio (D-1)/(2D-3); if the graph is bipartite, then the more restricted KarpSipser algorithm achieves the even stronger factor D/(2D-2). These guarantees set both algorithms apart from other famous matching heuristics like e.g. Greedy or MRG: these algorithms depend on randomization to break the 1/2-barrier even for paths with D=2. Moreover, for any D our guarantees are strictly larger than the best known bounds on the expected performance of the randomized variants of Greedy and MRG.
To investigate whether KarpSipser or 1-2-Greedy can be refined to achieve better performance, or be simplified without loss of approximation quality, we systematically study entire classes of deterministic greedy-like algorithms for matching. Therefore we employ the adaptive priority algorithm framework by Borodin, Nielsen, and Rackoff: in each round, an adaptive priority algorithm requests one or more edges by formulating their properties---like e.g. "is incident with a node of minimum degree"---and adds the received edges to the solution. No constraints on time and space usage are imposed, hence an adaptive priority algorithm is restricted only by its nature of picking edges in a greedy-like fashion. If an adaptive priority algorithm requests edges by processing degree information, then we show that it does not surpass the performance of KarpSipser: our D/(2D-2)-guarantee for bipartite graphs is tight and KarpSipser is optimal among all such "degree-sensitive" algorithms even though it uses degree information merely to detect degree-1 nodes. Moreover, we show that if degrees of both nodes of an edge may be processed, like e.g. the Double-MinGreedy algorithm does, then the performance of KarpSipser can only be increased marginally, if at all. Of special interest is the capability of requesting edges not only by specifying the degree of a node but additionally its set of neighbors. This enables an adaptive priority algorithm to "traverse" the input graph. We show that on general degree-bounded graphs no such algorithm can beat factor (D-1)/(2D-3). Hence our bound for 1-2-Greedy is tight and this algorithm performs optimally even though it ignores neighbor information. Furthermore, we show that an adaptive priority algorithm deteriorates to approximation ratio exactly 1/2 if it does not request small degree nodes. This tremendous decline of approximation quality happens for graphs on which 1-2-Greedy and KarpSipser perform optimally, namely paths with D=2. Consequently, requesting small degree nodes is vital to beat factor 1/2.
Summarizing, our results show that 1-2-Greedy and KarpSipser stand out from known and hypothetical algorithms as an intriguing combination of both approximation quality and conceptual simplicity.
In this article, we illustrate the flexibility of the algebraic integration formalism introduced in M. Gubinelli (2004), Controlling Rough Paths, J. Funct. Anal. 216, 86-140, by establishing an existence and uniqueness result for delay equations driven by rough paths. We then apply our results to the case where the driving path is a fractional Brownian motion with Hurst parameter H > 1/3.
Der Zufall – ein Helfer und kein Störenfried : warum die Wissenschaft stochastische Modelle braucht
(2008)
Der Zufall hat in den Wissenschaften weithin einen zweifelhaften Ruf. Für die Philosophie hat Hegel festgestellt: »Die philosophische Betrachtung hat keine andere Absicht, als das Zufällige zu entfernen« (Die Vernunft in der Geschichte, 1822) – und ähnlich denkt man auch in anderen Wissenschaften. Die Auseinandersetzungen der Physik mit dem Zufall sind verschlungen und bis heute von Kontroversen begleitet. Was die Biologie betrifft, so herrscht noch einiger Argwohn gegenüber den modernen Evolutionstheorien, die sich entscheidend auf den Zufall stützen. Und dass derartige Theorien unvereinbar sind mit der Vorstellung von einer göttlichen Schöpfung der Welt, gilt unter manchen ihrer Gegner wie Befürworter als ausgemacht.
Neuronal activity in the brain is often investigated in the presence of stimuli, termed externally driven activity. This stimulus-response-perspective has long been focussed on in order to find out how the nervous system responds to different stimuli. The neuronal response consists of baseline activity, so called spontaneous activity1, and activity which is caused by the stimulus. The baseline activity is often considered as constant over time which allows the identification of the stimulus-evoked part of the neuronal response by averaging over a set of trials.
However, during the last years it has been recognized that own dynamics of the nervous system plays an important role in information processing. As a consequence, spontaneous activity is no longer regarded only as background ’noise’ and its role in cortical processing is reconsidered. Therefore, the study of spontaneous firing pattern gains more importance as these patterns may shape neuronal responses to a larger extent as previously thought. For example, recent findings suggest that prestimulus activity can predict a person’s visual perception performance on a single trial basis (Hanslmayr et al., 2007). In this context, Ringach (2009) remarks that one can learn much about even the quiescent state of the brain which “underlies the importance of understanding cortical responses as the fusion of ongoing activity and sensory input”.
Taking into account that spontaneous activity reflects anything else but noise, new challenges arise when analysing neuronal data. In this thesis one of these problems related to the analysis of neuronal activity will be adressed, namely the nonstationarity of firing rates.
The present work consists of four chapters. First of all the introduction gives neurophysiological background information to get an idea of neuronal information processing. Afterwords the theory of point processes is provided which forms the basis for modeling neuronal spiking data. In the last section of the introduction a statement of the problem is given. Chapter 2 proposes an easily applicable statistical method for the detection of nonstationarity. It is applied to simulations and to real data in order to show its capabilities. Thereafter, four other approaches are presented which provide useful illustrations concerning the nonstationarity of the firing rate but share the problem that one cannot make objective statements on the basis of their results. They were developed in the course of establishing a suitable method. In chapter 4 the results are discussed and suggestions for further study are given.
Poster presentation from Twentieth Annual Computational Neuroscience Meeting: CNS*2011 Stockholm, Sweden. 23-28 July 2011. In statistical spike train analysis, stochastic point process models usually assume stationarity, in particular that the underlying spike train shows a constant firing rate (e.g. [1]). However, such models can lead to misinterpretation of the associated tests if the assumption of rate stationarity is not met (e.g. [2]). Therefore, the analysis of nonstationary data requires that rate changes can be located as precisely as possible. However, present statistical methods focus on rejecting the null hypothesis of stationarity without explicitly locating the change point(s) (e.g. [3]). We propose a test for stationarity of a given spike train that can also be used to estimate the change points in the firing rate. Assuming a Poisson process with piecewise constant firing rate, we propose a Step-Filter-Test (SFT) which can work simultaneously in different time scales, accounting for the high variety of firing patterns in experimental spike trains. Formally, we compare the numbers N1=N1(t,h) and N2=N2(t,h) of spikes in the time intervals (t-h,t] and (h,t+h]. By varying t within a fine time lattice and simultaneously varying the interval length h, we obtain a multivariate statistic D(h,t):=(N1-N2)/V(N1+N2), for which we prove asymptotic multivariate normality under homogeneity. From this a practical, graphical device to spot changes of the firing rate is constructed. Our graphical representation of D(h,t) (Figure 1A) visualizes the changes in the firing rate. For the statistical test, a threshold K is chosen such that under homogeneity, |D(h,t)|<K holds for all investigated h and t with probability 0.95. This threshold can indicate potential change points in order to estimate the inhomogeneous rate profile (Figure 1B). The SFT is applied to a sample data set of spontaneous single unit activity recorded from the substantia nigra of anesthetized mice. In this data set, multiple rate changes are identified which agree closely with visual inspection. In contrast to approaches choosing one fixed kernel width [4], our method has advantages in the flexibility of h.
Aus Sicht der Pädagogischen Psychologie ist Lernen ein Prozess, bei dem es zu überdauernden Änderungen im Verhaltenspotenzial als Folge von Erfahrungen kommt. Aus konstruktivistischer Perspektive lässt sich Lernen am besten als eine individuelle Konstruktion von Wissen infolge des Entdeckens, Transformierens und Interpretierens komplexer Informationen durch den Lernenden selbst beschreiben. Erkennt der Lernende den Sinn und übernimmt, erweitert oder verändert ihn für sich selbst, so ist der Grundstein für nachhaltiges Lernen gelegt.
Lernen ist ein sehr individueller Prozess. Schule muss also individuelles Lernen auch im Klassenverband ermöglichen und der Lehrende muss zum Lerncoach werden, da sonst kein individuelles und eigenaktives Lernen möglich ist. Das Unterrichtskonzept des forschend-entdeckenden Lernens bietet genau diese Möglichkeit. Es erlaubt die Erfüllung der drei Grundbedürfnisse eines Menschen nach Kompetenz, Autonomie und sozialer Eingebundenheit und ermöglicht damit Motivation, Leistung und Wohlbefinden (Ryan & Deci, 2004).
Forschend-entdeckendes Lernen im Mathematikunterricht ist schrittweise geprägt von folgenden Merkmalen:
- eine problemorientierte Organisation
- selbstständiges, eigenaktives und eigenverantwortliches Lernen der Schülerinnen und Schüler
- individuelle Lernwege und Lernprozesse
- Entwicklung eigener Fragestellungen und Vorgehensweisen der Lernenden
- eigenes Aufstellen von Hypothesen und Vermutungen; Überprüfung der Vermutungen; Dokumentation, Interpretation und Präsentation der Ergebnisse
- eine fördernde Atmosphäre, in der die Lernenden nach und nach forschende Arbeitstechniken vermitteln bekommen
- kooperative Lernformen und damit Förderung von Team- und Kommunikationsfähigkeit
- Unterrichtsinhalte mit hohem Realitäts- und Sinnbezug, gesellschaftlicher Relevanz, Möglichkeiten der Interdisziplinarität
- Stetige Angebote der Unterstützung
Das entdeckende Lernen kann als Vorstufe des forschenden Lernens gesehen werden, da hier der wissenschaftliche Fokus noch nicht so stark ausgeprägt ist. Um alle Phasen auf dem Weg zu annähernd wissenschaftlichen forschenden Lernens anzusprechen, verwenden wir den Begriff des forschend-entdeckenden Lernens.
Voraussetzung ist, dass die Lehrkräfte das forschende Lernen als aktiven, produktiven und selbstbestimmten Lernprozess selbst zuvor erlebt haben müssen. Unter anderem können die Lehrkräfte Unterrichtsprozesse danach besser planen und währenddessen unterstützen, da sie selbst forschend-entdeckendem Lernen „ausgesetzt“ waren und vergleichbare Prozesse durchlebt haben.
Hiermit wird deutlich, dass forschendes Lernen nicht bedeuten kann, dass die Schülerinnen und Schüler auf sich gestellt sind. Die gezielte Unterstützung der Lernenden beim Entdecken und Forschen durch die Lehrkraft ist für einen ertragreichen Lernerfolg unverzichtbar und muss Teil der Vorbereitung und des Prozesses sein.
Internationale Studien zeigen, dass forschend-entdeckende Unterrichtsansätze (inquiry-based learning IBL) im Mathematikunterricht bei geeigneter Umsetzung Lernen verbessern, Lernerfolg und Lernleistung steigern und Freude gegenüber Mathematikunterricht erhöhen können. Die Implementierung dieses Unterrichtsansatzes ist trotz der positiven Ergebnisse nicht alltäglich.
Um neue Unterrichtskonzepte in den Schulalltag zu bringen beziehungsweise um bestehende Unterrichtskonzepte neu in den Schulalltag zu bringen bedarf es Fortbildungen zur Professionalisierung von Lehrerinnen und Lehrern.
Bei der Untersuchung des Langzeitverhaltens von Verzweigungsprozessen und räumlich verzweigenden Populationen ist die Betrachtung von Stammbäumen zunehmend in den Vordergrund gerückt. Probabilistische Methoden haben die in der Theorie vorherrschenden analytischen Techniken ergänzt und zu wesentlichen neuen Einsichten geführt. Die vorliegende Synopse diskutiert eine Auswahl meiner Veröffentlichungen der letzten Jahre. Den Arbeiten ist gemeinsam, dass durch das Studium der genealogischen Verhältnisse in der Population Aussagen über deren Langzeitverhalten gewonnen werden konnten. Zwei dieser Arbeiten behandeln den klassischen Galton-Watson Prozess. Eine weitere Arbeit befasst sich mit Verzweigungsprozessen in zufälliger Umgebung, sie ist technische wesentlich anspruchsvoller. Die vierte der hier besprochenen Arbeiten beschäftigt sich mit dem Wählermodell, einem der Prototypen interagierender Teilchensysteme.
Eine Woche lang präsentieren Wissenschaftler*innen Ergebnisse aus der mathematikdidaktischen Forschung und Lehr-Lern-Konzepte für mathematisches Lernen von Schüler*innen sowie für das mathematische und mathematikdidaktische Lernen in den verschiedenen Phasen der Lehrer*innenbildung. Der UniReport sprach mit den Organisatorinnen der Tagung – Prof.in Dr. Susanne Schnell, Prof.in Dr. Rose Vogel und Prof.in Dr. Jessica Hoth – über das Programm der Tagung und über die künftige Ausrichtung des Faches Mathematik.
This work connects Markov chain imbedding technique (MCIT) introduced by M.V. Koutras and J.C. Fu with distributions concerning the cycle structure of permutations. As a final result program code is given that uses MCIT to deliver proper numerical values for these. The discrete distributions of interest are the one of the cycle structure, the one of the number of cycles, the one of the rth longest and shortest cycle and finally the length of a random chosen cycle. These are analyzed for equiprobable permutations as well as for biased ones. Analytical solutions and limit distributions are also considered to put the results on a safe, theoretical base.
Informationsverarbeitung im Gehirn basiert auf dem koordinierten Zusammenwirken von Milliarden von Nervenzellen. Um diese Codes zu entschlüsseln, sind komplexe Verfahren experimenteller Datenerhebung und theoretischer Datenanalyse notwendig. Denn auch wenn alle Zellen im selben Rhythmus agieren, kann sich jede auf ihre Art am Konzert beteiligen. Die verschiedenen Stimmen äußern sich in zeitlichen Mustern, die sich experimentell kaum vom Rauschen unterscheiden lassen. Erst mithilfe statistischer Verfahren konnten winzige zeitliche Verzögerungen als nicht zufällig identifiziert werden.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
We present efficient non-malleable commitment schemes based on standard assumptions such as RSA and Discrete-Log, and under the condition that the network provides publicly available RSA or Discrete-Log parameters generated by a trusted party. Our protocols require only three rounds and a few modular exponentiations. We also discuss the difference between the notion of non-malleable commitment schemes used by Dolev, Dwork and Naor [DDN00] and the one given by Di Crescenzo, Ishai and Ostrovsky [DIO98].
Public key signature schemes are necessary for the access control to communication networks and for proving the authenticity of sensitive messages such as electronic fund transfers. Since the invention of the RSA scheme by Rivest, Shamir and Adleman (1978) research has focused on improving the e±ciency of these schemes. In this paper we present an efficient algorithm for generating public key signatures which is particularly suited for interactions between smart cards and terminals.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Es steht außer Zweifel, daß digitale Signaturen schon bald zu unserem Alltag gehören wer- den. Spätestens mit dem Inkrafttreten des Gesetzes zur digitalen Signatur (siehe [BMB]) sind sie zu einem wichtigen Instrument in der Telekommunikation geworden. Dabei kommt der Verwendung von Chipkarten eine wichtige Bedeutung zu: In ihnen lassen sich die sensiblen Daten (z.B. der geheime Schlüssel) auslesesicher aufbewahren; gleichzeitig können sie bequem mitgeführt werden. Aus diesen Gründen erlebt die Verwendung von Chipkarten zur Erzeugung von digitalen Signaturen zur Zeit einen enormen Aufschwung. Problematisch ist jedoch der oft unverhältnismäßig große Berechnungsaufwand für die Erzeugung von digitalen Signaturen. Ziel dieser Arbeit ist es, Methoden zu entwickeln und/oder zu untersuchen, welche die Berechnung digitaler Unterschriften wesentlich beschleunigen. Dabei spiegelt sich die Zweiteilung der in der Praxis hauptsächlich verwendeten Typen von Signaturverfahren in der Struktur der Arbeit wider. Der erste Teil dieser Arbeit untersucht Verfahren zur effizienten Berechnung von RSA-Unterschriften. Dabei entstanden die Untersuchungen in den Abschnitten 3.2.3 und 3.2.4 in Zusammenarbeit mit R. Werchner und der Inhalt der Abschnitte 3.1 - 3.2.4 ist bereits in [MW98] veröffentlicht. Im zweiten Teil entwickeln wir Verfahren zur effizienteren Generierung von Unterschriften, die auf dem diskreten Logarithmus basieren, und untersuchen deren Sicherheit. Dabei entstanden die Untersuchungen in den Abschnitten 4.2 (bis auf 4.2.2) und 4.3.1 in Zusammenarbeit mit C. P. Schnorr und sind teilweise in [MS98] zusammengefaßt. Obwohl diese Arbeit eine mathematische Abhandlung darstellt, versuchen wir, die praktische Anwendung nicht aus den Augen zu verlieren. So orientieren sich die betrachteten Verfahren stets an den durch die verfügbare Technologie gegebenen Rahmenbedingungen. Darüber hinaus richten wir unser Augenmerk weniger auf das asymptotische Verhalten der betrachteten Verfahren, als vielmehr auf konkrete, für die Anwendung relevante Beispiele.
In der vorliegenden Arbeit wird ein interaktives Beweisprotokoll für das Problem der "überprüfbaren Verschlüsselung" (verifiable encyption) vorgestellt. Mit Hilfe eines Verifiable Encryption Protokolls (VEP) beweist eine Person (der Prover) einer anderen Person (dem Verifier) effizient, daß ein vorher gesendeter Wert alpha die Verschlüsselung eines geheimen Wertes s ist. Den geheimen Wert s muß er dazu nicht offenlegen. Zur Verschlüsselung von s wird ein Public-Key-Verfahren und ein öffentlicher Schlüssel PK benutzt. PK gehört zum Schlüsselpaar einer dritten Partei, die nicht aktiv an der Protokollausführung beteiligt ist und die Rolle eines Notars einnimmt. Dem Verifier steht ein Wert d zur Verfügung, anhand dessen er entscheidet, ob er den Beweis akzeptiert oder verwirft. Akzeptiert der Verifier den Beweis des Provers, so kann er zwar mit an Sicherheit grenzender Wahrscheinlichkeit sagen, daß alpha eine Verschlüsselung von s unter dem öffentlichen Schlüssel PK ist. Er kann s jedoch nicht rekonstruieren, da er nicht im Besitz des zu PK gehörigen geheimen Schlüssels SK ist und der Beweis keine Informationen über s preisgibt.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Ein Mathematiker mit universalem Anspruch : über Max Dehn und sein Wirken am Mathematischen Seminar
(2002)
Für eine erste Blüte der Mathematik in Frankfurt gab Max Dehn (1878 –1952) in den Jahren ab 1921 bis 1935 entscheidende Impulse. Seine völlig neuen Ideen zur Knotentheorie und zur Topologie beeinflussten die Entwicklung der Mathematik weit über Deutschland hinaus. 1935 fand sein Wirken in Frankfurt durch den Terror der Nationalsozialisten ein jähes Ende. Nach einer gefahrvollen Flucht über Norwegen, Finnland, die Sowjetunion und Japan erreichte Dehn schließlich, 62-jährig, die Vereinigten Staaten von Nordamerika. Eine seinen Fähigkeiten entsprechende Stellung konnte er dort nicht mehr erlangen. Sein fünfzigster Todestag in diesem Jahr ist Anlass für diese Rückschau.