Mathematik
Refine
Year of publication
Document Type
- Article (112)
- Doctoral Thesis (76)
- Preprint (48)
- diplomthesis (39)
- Book (25)
- Report (22)
- Conference Proceeding (18)
- Bachelor Thesis (8)
- Contribution to a Periodical (8)
- Diploma Thesis (8)
Has Fulltext
- yes (377) (remove)
Is part of the Bibliography
- no (377)
Keywords
- Kongress (6)
- Kryptologie (5)
- Mathematik (5)
- Stochastik (5)
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
- Online-Publikation (4)
- Statistik (4)
- Finanzmathematik (3)
- LLL-reduction (3)
Institute
- Mathematik (377) (remove)
In the model of randomly perturbed graphs we consider the union of a deterministic graph G with minimum degree αn and the binomial random graph G(n, p). This model was introduced by Bohman, Frieze, and Martin and for Hamilton cycles their result bridges the gap between Dirac’s theorem and the results by Pósa and Korshunov on the threshold in G(n, p). In this note we extend this result in G ∪G(n, p) to sparser graphs with α = o(1). More precisely, for any ε > 0 and α: N ↦→ (0, 1) we show that a.a.s. G ∪ G(n, β/n) is Hamiltonian, where β = −(6 + ε) log(α). If α > 0 is a fixed constant this gives the aforementioned result by Bohman, Frieze, and Martin and if α = O(1/n) the random part G(n, p) is sufficient for a Hamilton cycle. We also discuss embeddings of bounded degree trees and other spanning structures in this model, which lead to interesting questions on almost spanning embeddings into G(n, p).
For a class of Cannings models we prove Haldane’s formula, π(sN)∼2sNρ2, for the fixation probability of a single beneficial mutant in the limit of large population size N and in the regime of moderately strong selection, i.e. for sN∼N−b and 0<b<1/2. Here, sN is the selective advantage of an individual carrying the beneficial type, and ρ2 is the (asymptotic) offspring variance. Our assumptions on the reproduction mechanism allow for a coupling of the beneficial allele’s frequency process with slightly supercritical Galton–Watson processes in the early phase of fixation.
[Nachruf] Wolfgang Schwarz
(2013)
The problem of unconstrained or constrained optimization occurs in many branches of mathematics and various fields of application. It is, however, an NP-hard problem in general. In this thesis, we examine an approximation approach based on the class of SAGE exponentials, which are nonnegative exponential sums. We examine this SAGE-cone, its geometry, and generalizations. The thesis consists of three main parts:
1. In the first part, we focus purely on the cone of sums of globally nonnegative exponential sums with at most one negative term, the SAGE-cone. We ex- amine the duality theory, extreme rays of the cone, and provide two efficient optimization approaches over the SAGE-cone and its dual.
2. In the second part, we introduce and study the so-called S-cone, which pro- vides a uniform framework for SAGE exponentials and SONC polynomials. In particular, we focus on second-order representations of the S-cone and its dual using extremality results from the first part.
3. In the third and last part of this thesis, we turn towards examining the con- ditional SAGE-cone. We develop a notion of sublinear circuits leading to new duality results and a partial characterization of extremality. In the case of poly- hedral constraint sets, this examination is simplified and allows us to classify sublinear circuits and extremality for some cases completely. For constraint sets with certain conditions such as sets with symmetries, conic, or polyhedral sets, various optimization and representation results from the unconstrained setting can be applied to the constrained case.
The aim of this bachelor thesis is to compare and empirically test the use of classification to improve the topic models Latent Dirichlet Allocation (LDA) and Author Topic Modeling
(ATM) in the context of the social media platform Twitter. For this purpose, a corpus was classified with the Dewey Decimal Classification (DDC) and then used to train the topic models. A second dataset, the unclassified corpus, was used for comparison. The assumption that the use of classification could improve the topic models did not prove true for the LDA topic model. Here, a sufficiently good improvement of the models could not be achieved. The ATM model, on the other hand, could be improved by using the classification. In general, the ATM model performed significantly better than the LDA model. In the context of the social media platform Twitter, it can thus be seen that the ATM model is superior to the LDA model and can additionally be improved by classifying the data.
We provide extensions of the dual variational method for the nonlinear Helmholtz equation from Evéquoz and Weth. In particular we prove the existence of dual ground state solutions in the Sobolev critical case, extend the dual method beyond the standard Stein Tomas and Kenig Ruiz Sogge range and generalize the method for sign changing nonlinearities.
We study continuous dually epi-translation invariant valuations on certain cones of convex functions containing the space of finite-valued convex functions. Using the homogeneous decomposition of this space, we associate a certain distribution to any homogeneous valuation similar to the Goodey-Weil embedding for translation invariant valuations on convex bodies. The support of these distributions induces a corresponding notion of support for the underlying valuations, which imposes certain restrictions on these functionals, and we study the relation between the support of a valuation and its domain. This gives a partial answer to the question which dually epi-translation invariant valuations on finite-valued convex functions can be extended to larger cones of convex functions.
We also study topological properties of spaces of valuations with support contained in a fixed compact set. As an application of these results, we introduce the class of smooth valuations on convex functions and show that the subspace of smooth dually epi-translation invariant valuations is dense in the space of continuous dually epi-translation invariant valuation on finite-valued convex functions. These smooth valuations are given by integrating certain smooth differential forms over the graph of the differential of a convex function. We use this construction to give a characterization of a dense subspace of all continuous valuations on finite-valued convex functions that are rotation invariant as well as dually epi-translation invariant.
Using results from Alesker's theory of smooth valuations on convex bodies, we also show that any smooth valuation can be written as a convergent sum of mixed Hessian valuations. In particular, mixed Hessian valuations span a dense subspace, which is a version of McMullen’s conjecture for valuations on convex functions.
In this paper we deal with an implementation as well as numerical experiments for the coupling of interior and exterior problems of the elastodynamic wave equation with transparent boundary conditions in 3D as described in a previous paper by this author. In more detail, the FEM‐BEM‐coupling as well as the time discretization by using leapfrog and convolution quadrature is considered. Our aim is to provide an insight into the necessary steps of the implementation. Based on this, we present numerical experiments for a non‐convex domain and analyze the errors.
We contribute to the foundations of tropical geometry with a view toward formulating tropical moduli problems, and with the moduli space of curves as our main example. We propose a moduli functor for the moduli space of curves and show that it is representable by a geometric stack over the category of rational polyhedral cones. In this framework, the natural forgetful morphisms between moduli spaces of curves with marked points function as universal curves.
Our approach to tropical geometry permits tropical moduli problems—moduli of curves or otherwise—to be extended to logarithmic schemes. We use this to construct a smooth tropicalization morphism from the moduli space of algebraic curves to the moduli space of tropical curves, and we show that this morphism commutes with all of the tautological morphisms.
The specific temporal evolution of bacterial and phage population sizes, in particular bacterial depletion and the emergence of a resistant bacterial population, can be seen as a kinetic fingerprint that depends on the manifold interactions of the specific phage–host pair during the course of infection. We have elaborated such a kinetic fingerprint for a human urinary tract Klebsiella pneumoniae isolate and its phage vB_KpnP_Lessing by a modeling approach based on data from in vitro co-culture. We found a faster depletion of the initially sensitive bacterial population than expected from simple mass action kinetics. A possible explanation for the rapid decline of the bacterial population is a synergistic interaction of phages which can be a favorable feature for phage therapies. In addition to this interaction characteristic, analysis of the kinetic fingerprint of this bacteria and phage combination revealed several relevant aspects of their population dynamics: A reduction of the bacterial concentration can be achieved only at high multiplicity of infection whereas bacterial extinction is hardly accomplished. Furthermore the binding affinity of the phage to bacteria is identified as one of the most crucial parameters for the reduction of the bacterial population size. Thus, kinetic fingerprinting can be used to infer phage–host interactions and to explore emergent dynamics which facilitates a rational design of phage therapies.
Wir konnten unseren eigenen Weg gehen, jeder von uns hatte am Ende ein anderes Ergebnis und es war keines falsch. Das macht für mich die Qualität beim Lernen aus, dass mir genug Platz für meine Gedanken gegeben wird und ich ernst genommen werde. […] Dieses Gefühl ist bis heute nicht verloren gegangen und der Gedanke, wie es sein könnte, hilft mir, aus mir raus zukommen und andere zu motivieren, das ebenfalls zu tun, um auch um mich herum anregende Gespräche zu führen, die an die während der Akademie geführten heranreichen. (Feedback einer Teilnehmerin der HSAKA-M 2018)
Bildung durch Wissenschaft im Sinne des Forschenden Lernens ist ein zentrales Thema schulischer Bildung und findet beispielsweise im Konzept Kultur.Forscher! eine didaktische, schulische Umsetzung und wird vom Wissenschaftsrat als Leitgedanke ebenfalls für Universitäten mit dem Ziel empfohlen, Studium und Lehre deutlicher an der Forschung auszurichten.
Die Erfahrung, "…dass alles auch ganz anders sein könnte" ist die wohl wichtigste Erfahrung in Bildungsprozessen. Die Entdeckung von Möglichkeiten, Perspektivwechseln und transformatorischen Selbst-Bildungsprozessen ist zentral für eine gelungene kulturelle Bildungssituation. (Birgit Mandel, 2005).
Die Hessischen Schülerakademien zur Förderung besonders engagierter und begabter junger Menschen wurden bewusst als ein Unterfangen des Forschenden Lernens gegründet und fühlen sich diesem Leitgedanken im Kontext kultureller Bildung verpflichtet. Dieser Satz klingt zunächst einmal gut und zeitgemäß. Doch was steckt genau dahinter?
Das Zusammentreffen zu Beginn der Sommerferien von 60 wissbegierigen und experimentierfreudigen Schülerinnen und Schülern mit einem ebensolchen Team aus Hochschullehrenden und Kulturschaffenden, versprach wie immer eine intensive und aufregende Zeit zu werden. Diese positive Erwartung wurde auch voll erfüllt und gipfelte am Gästenachmittag mit Eltern, Verwandten, Freunden und interessierten Besuchern in einen feierlich-fröhlichen Abschluss mit spannenden und auch überraschenden Werkschauen der Kurse. Ein besonderes Highlight war die großformatige Gestaltung eines Modells der BURG FÜRSTENECK als interdisziplinäres Ergebnis des Hauptkurses Mathematik und des Wahlkurses Modellbau.
Als wir im Herbst 2015 auf den Homepages von BURG FÜRSTENECK und der Schülerakademie unsere Ausschreibung für die Akademie 2016 veröffentlichten, ahnten wir noch nicht, dass wir uns weitere Werbung mit dem jährlichen Flyer, den wir zum Jahreswechsel an die hessischen Gymnasien und Gesamtschulen mit gymnasialen Zweig versenden, hätten (fast) sparen können. Zu unserer Überraschung und großer Freude zählten wir bereits im Februar 2016 "58" Anmeldungen von Schülerinnen und Schülern. Die Werbung hat uns im Anschluss über 20 weitere Bewerbungen beschert und in die unangenehme Situation gebracht, (zu) vielen Schülerinnen und Schülern absagen bzw. sie auf das nächste Jahr vertrösten zu müssen.
Nur eine Institution, die sich verändern kann, kann auch bestehen – das gilt mit Sicherheit im besonderen Maße für Bildungseinrichtungen. Veränderungen können jedoch in unterschiedlichem Gewand daherkommen. Manche geschehen unerwartet und verursachen dadurch vielleicht Probleme, andere hingegen bahnen sich so langsam an, dass ihre Effekte geradezu überraschend wirken können. Die in ihrer Geschwindigkeit unerwartete Einführung des Praxissemesters in der ersten, universitären Phase der Lehrerausbildung in Hessen ist eine solche problematische Veränderung für die Hessische Schülerakademie (Oberstufe), weil sie deren bisher gültige Integration in die schulpraktischen Studienanteile der studentischen BetreuerInnen nicht mehr vorsieht – ein Umstand, der Akademieleitung und Kuratorium ebenso wie unsere Kooperationspartner an der Universität und im Kultusministerium jetzt schon seit über zwei Jahren intensiv beschäftigt.
Wer gern mitzählt, wird vielleicht festgestellt haben, dass im Sommer 2017 die zwanzigste Hessische Schülerakademie stattfand – dreizehn Oberstufenakademien waren es seit 2004, sieben für die Mittelstufe kamen seit 2011 hinzu. Zwanzig erfolgreiche Akademien bieten nicht nur Anlass zur Freude, sie bilden auch die solide Grundlage für einen selbstbewussten Blick in die Zukunft. Im nächsten Frühjahr lädt daher die Akademie Burg Fürsteneck gemeinsam mit dem Hessischen Kultusministerium zu einem interdisziplinären Symposium ein, bei dem die Hessische Schülerakademie und das Programm KulturSchule im Mittelpunkt stehen: Unter dem Titel "Kulturelle Bildung auf dem Weg" beschäftigen sich vom 2. bis zum 4. März 2018 Fachleute aus Wissenschaft und Praxis auf Burg Fürsteneck mit den "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen".
Das Akademiejahr 2018 hatte neben den beiden Schülerakademien für die Mittelstufe und die Oberstufe noch einen weiteren Höhepunkt: das Symposium "Kulturelle Bildung auf dem Weg" (vom 2. bis 4. März 2018, ausgerichtet von Burg Fürsteneck gemeinsam mit dem Schulentwicklungsprogramm KulturSchule des Hessischen Kultusministeriums und dem Weiterbildungsmaster Kulturelle Bildung an Schulen der Uni Marburg). Es wurde von unserem Schirmherrn, Kultusminister Prof. Dr. R. Alexander Lorz, eröffnet und hatte unter anderem das Ziel, in der Begegnung von Bildungsexpert*innen und -praktiker*innen eine Fachdebatte über "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen" anzustoßen.
Kaum ein Name ist so eng mit dem "Projekt HSAKA" verbunden wie der von Wolf Aßmus: Seit der ersten Hessischen Schülerakademie für die Oberstufe im Jahre 2004 ist er als Leiter des Physik-Kurses dabei; die Gründung der Mittelstufenakademie 2011 wurde von ihm tatkräftig unterstützt und gefördert; einen Sitz im Kuratorium hat er ebenso übernommen wie das Amt des Ersten Vorsitzenden des Trägervereins von Burg Fürsteneck – der inzwischen pensionierte Professor für Festkörperphysik verkörpert geradezu die Idee vom "Un-Ruhestand". Wer mag es ihm da verübeln, wenn Wolf beschließt, im nächsten Sommer mal mehr Zeit mit seinen Enkeln zu verbringen, statt auf die Burg zu fahren? Weil es daher 2020 zum ersten Mal eine Oberstufenakademie ohne Wolf und ohne Physik-Kurs geben wird (stattdessen Philosophie und Informatik), haben wir auf der vergangenen Akademie die Gelegenheit genutzt, Wolf für 15 Jahre Schülerakademie zu danken. Genauer gesagt: für 15 Jahre, 16 Fachkurse in Physik (15 auf der Oberstufenakademie und einer bei der Mittelstufe), 15 kursübergreifende Naturkunde-Angebote, für die Betreuung Dutzender Studierender und weit über 200 Schüler*innen, für unzählige gemeinsame Aha-Erlebnisse und humorvolle Geschichten, für unermüdliches Engagement und geduldigen Beistand – und nicht zuletzt für viele, viele Liter Speiseeis. Unsere Dankbarkeit wollen wir hier mit allen Leser*innen dieser Dokumentation teilen.
In vivo functional diversity of midbrain dopamine neurons within identified axonal projections
(2019)
Functional diversity of midbrain dopamine (DA) neurons ranges across multiple scales, from differences in intrinsic properties and connectivity to selective task engagement in behaving animals. Distinct in vitro biophysical features of DA neurons have been associated with different axonal projection targets. However, it is unknown how this translates to different firing patterns of projection-defined DA subpopulations in the intact brain. We combined retrograde tracing with single-unit recording and labelling in mouse brain to create an in vivo functional topography of the midbrain DA system. We identified differences in burst firing among DA neurons projecting to dorsolateral striatum. Bursting also differentiated DA neurons in the medial substantia nigra (SN) projecting either to dorsal or ventral striatum. We found differences in mean firing rates and pause durations among ventral tegmental area (VTA) DA neurons projecting to lateral or medial shell of nucleus accumbens. Our data establishes a high-resolution functional in vivo landscape of midbrain DA neurons.
We study empirically and analytically growth and fluctuation of firm size distribution. An empirical analysis is carried out on a US data set on firm size, with emphasis on one-time distribution as well as growth-rate probability distribution. Both Pareto's law and Gibrat's law are often used to study firm size distribution. Their theoretical relationship is discussed, and it is shown how they are complementable with a bimodal distribution of firm size. We introduce economic mechanisms that suggest a bimodal distribution of firm size in the long run. The mechanisms we study have been known in the economic literature since long. Yet, they have not been studied in the context of a dynamic decision problem of the firm. Allowing for these mechanism thus will give rise to heterogeneity of firms with respect to certain characteristics. We then present different types of tests on US data on firm size which indicate a bimodal distribution of firm size.
Strong convergence rates for numerical approximations of stochastic partial differential equations
(2018)
In this thesis and in the research articles which this thesis consists of, respectively, we focus on strong convergence rates for numerical approximations of stochastic partial differential equations (SPDEs). In Part I of this thesis, i.e., Chapter 2 and Chapter 3, we study higher order numerical schemes for SPDEs with multiplicative trace class noise based on suitable Taylor expansions of the Lipschitz continuous coefficients of the SPDEs under consideration. More precisely, Chapter 2 proves strong convergence rates for a linear implicit Euler-Milstein scheme for SPDEs and is based on an unpublished manuscript written by the author of this thesis. This chapter extends an earlier result1 by slightly lowering the assumptions posed on the diffusion coefficient and a different approximation of the semigroup. In Chapter 3 we introduce an exponential Wagner-Platen type numerical scheme for SPDEs and prove that this numerical approximation method converges in the strong sense with oder up to 3/2−. Moreover, we illustrate how the (mixed) iterated stochastic-deterministic integrals, that are part of our numerical scheme, can be simulated exactly under suitable assumptions.
The second part of this thesis, i.e. Chapter 4 and Chapter 5, is devoted to strong convergence rates for numerical approximations of SPDEs with superlinearly growing nonlinearities driven by additive space-time white noise. More specifically, in Chapter 4, we prove strong convergence with rate in the time variable for a class of nonlinearity-truncated numerical approximation schemes for SPDEs and provide examples that fit into our abstract setting like stochastic Allen-Cahn equations. Finally, in Chapter 5, we extend this result with spatial approximations and establish strong convergence rates for a class of full-discrete nonlinearity truncated numerical approximation schemes for SPDEs. Moreover, we apply our strong convergence result to stochastic Allen-Cahn equations and provide lower and upper bounds which show that our strong convergence result can, in general, not essentially be improved.
To crack the neural code and read out the information neural spikes convey, it is essential to understand how the information is coded and how much of it is available for decoding. To this end, it is indispensable to derive from first principles a minimal set of spike features containing the complete information content of a neuron. Here we present such a complete set of coding features. We show that temporal pairwise spike correlations fully determine the information conveyed by a single spiking neuron with finite temporal memory and stationary spike statistics. We reveal that interspike interval temporal correlations, which are often neglected, can significantly change the total information. Our findings provide a conceptual link between numerous disparate observations and recommend shifting the focus of future studies from addressing firing rates to addressing pairwise spike correlation functions as the primary determinants of neural information.
In 1957, Craig Mooney published a set of human face stimuli to study perceptual closure: the formation of a coherent percept on the basis of minimal visual information. Images of this type, now known as “Mooney faces”, are widely used in cognitive psychology and neuroscience because they offer a means of inducing variable perception with constant visuo-spatial characteristics (they are often not perceived as faces if viewed upside down). Mooney’s original set of 40 stimuli has been employed in several studies. However, it is often necessary to use a much larger stimulus set. We created a new set of over 500 Mooney faces and tested them on a cohort of human observers. We present the results of our tests here, and make the stimuli freely available via the internet. Our test results can be used to select subsets of the stimuli that are most suited for a given experimental purpose.
Motivation: The topic of this paper is the estimation of alignments and mutation rates based on stochastic sequence-evolution models that allow insertions and deletions of subsequences ("fragments") and not just single bases. The model we propose is a variant of a model introduced by Thorne, Kishino, and Felsenstein (1992). The computational tractability of the model depends on certain restrictions in the insertion/deletion process; possible effects we discuss.
Results: The process of fragment insertion and deletion in the sequence-evolution model induces a hidden Markov structure at the level of alignments and thus makes possible efficient statistical alignment algorithms. As an example we apply a sampling procedure to assess the variability in alignment and mutation parameter estimates for HVR1 sequences of human and orangutan, improving results of previous work. Simulation studies give evidence that estimation methods based on the proposed model also give satisfactory results when applied to data for which the restrictions in the insertion/deletion process do not hold.
Availability: The source code of the software for sampling alignments and mutation rates for a pair of DNA sequences according to the fragment insertion and deletion model is freely available from www.math.uni-frankfurt.de/~stoch/software/mcmcsalut under the terms of the GNU public license (GPL, 2000).
Die Mathematik ist gleichermaßen eine Kulturwissenschaft mit langer Tradition als auch treibende Kraft hinter vielen modernen Technologien und damit Schlüsseldisziplin des Informationszeitalters. Zum einen zielt die Mathematik darauf ab, abstrakte Strukturen und ihre Zusammenhänge zu verstehen; zum anderen entwickelt sie kraftvolle Methoden, um Frage- und Problemstellungen in zahlreichen Wissenschaftsdisziplinen zu behandeln. Moderne Anwendungen der Mathematik liegen beispielsweise in den Bereichen der Datensicherheit und -kompression, der Verkehrssteuerung, der Bewertung und Optimierung von Finanzinstrumenten oder der medizinischen Operationsplanung.
In dieser Broschüre stellen wir Ihnen das Profil der Frankfurter Mathematik in Forschung und Lehre sowie speziell die Studiengänge
• Bachelor Mathematik
• Master Mathematik
vor. An der Goethe-Universität ist es auch möglich, Mathematik auf Lehramt (L1, L2, L3, L5) zu studieren. ...
Gleichungen mit mehreren Unbekannten zu lösen, üben Schüler schon in der Mittelstufe. Für die einen ist es eine spannende mathematische Knobelei, für die anderen eher Quälerei. Doch den wenigsten ist bewusst, wie viele Leben dadurch jeden Tag gerettet werden. Die moderne medizinische Bildgebung beruht darauf, sehr viele Gleichungen nach sehr vielen Unbekannten aufzulösen.
Viewing of ambiguous stimuli can lead to bistable perception alternating between the possible percepts. During continuous presentation of ambiguous stimuli, percept changes occur as single events, whereas during intermittent presentation of ambiguous stimuli, percept changes occur at more or less regular intervals either as single events or bursts. Response patterns can be highly variable and have been reported to show systematic differences between patients with schizophrenia and healthy controls. Existing models of bistable perception often use detailed assumptions and large parameter sets which make parameter estimation challenging. Here we propose a parsimonious stochastic model that provides a link between empirical data analysis of the observed response patterns and detailed models of underlying neuronal processes. Firstly, we use a Hidden Markov Model (HMM) for the times between percept changes, which assumes one single state in continuous presentation and a stable and an unstable state in intermittent presentation. The HMM captures the observed differences between patients with schizophrenia and healthy controls, but remains descriptive. Therefore, we secondly propose a hierarchical Brownian model (HBM), which produces similar response patterns but also provides a relation to potential underlying mechanisms. The main idea is that neuronal activity is described as an activity difference between two competing neuronal populations reflected in Brownian motions with drift. This differential activity generates switching between the two conflicting percepts and between stable and unstable states with similar mechanisms on different neuronal levels. With only a small number of parameters, the HBM can be fitted closely to a high variety of response patterns and captures group differences between healthy controls and patients with schizophrenia. At the same time, it provides a link to mechanistic models of bistable perception, linking the group differences to potential underlying mechanisms.
Thought structures of modelling task solutions and their connection to the level of difficulty
(2015)
Although efforts have been made to integrate the concept of mathematical modelling in school, among others PISA and TIMSS revealed weaknesses of not only German students in the field of mathematical modelling. There may be various reasons starting from educational policy via curricular issues to practical instructional concerns. Studies show that mathematical modelling has not been arrived yet in everyday school class (Blum &BorromeoFerri, 2009, p. 47). Thus, the proportion of mathematical modelling in everyday school classes is low (Jordan et al., 2006). When focusing on the teachers’ point of view there are difficulties which may contribute to avoid modelling tasks in class. The development of reasonable modelling tasks, estimating the task space, valuating the task difficulty and assessing the student solutions are difficulties which occur to an increasing degree compared to ordinary mathematics tasks.The project MokiMaS (transl.: modeling competency in math classes of secondary education) aims at providing inter-year modelling tasks, whose task space and level of difficulty is known, together with an evaluation scheme. In particular a theory based method has been developed to determine the level of difficulty of modelling tasks on the basis of thought structures, representing the cognitive load of solution approaches. The current question is whether this method leads to a realistic rating. To go further into that question an evaluation scheme has been developed which is guided by the daily assessment work of teachers, to investigate the relation of task difficulty and student performance.
Bipartite graphs occur in many parts of mathematics, and their embeddings into orientable compact surfaces are an old subject. A new interest comes from the fact that these embeddings give dessins d’enfants providing the surface with a unique structure as a Riemann surface and algebraic curve. In this paper, we study the (surprisingly many different) dessins coming from the graphs of finite cyclic projective planes. It turns out that all reasonable questions about these dessins — uniformity, regularity, automorphism groups, cartographic groups, defining equations of the algebraic curves, their fields of definition, Galois actions — depend on cyclic orderings of difference sets for the projective planes. We explain the interplay between number theoretic problems concerning these cyclic ordered difference sets and topological properties of the dessin like e.g. the Wada property that every vertex lies on the border of every cell.
The purpose of the present paper is to explain the fake projective plane constructed by J. H. Keum from the point of view of arithmetic ball quotients. Beside the ball quotient associated with the fake projective plane, we also analize two further naturally related ball quotients whose minimal desingularizations lead to two elliptic surfaces, one already considered by J. H. Keum as well as the one constructed by M. N. Ishida in terms of p-adic uniformization.
2000 Mathematics Subject Classification: 11F23,14J25,14J27
Can variances of latent variables be scaled in such a way that they correspond to eigenvalues?
(2017)
The paper reports an investigation of whether sums of squared factor loadings obtained in confirmatory factor analysis correspond to eigenvalues of exploratory factor analysis. The sum of squared factor loadings reflects the variance of the corresponding latent variable if the variance parameter of the confirmatory factor model is set equal to one. Hence, the computation of the sum implies a specific type of scaling of the variance. While the investigation of the theoretical foundations suggested the expected correspondence between sums of squared factor loadings and eigenvalues, the necessity of procedural specifications in the application, as for example the estimation method, revealed external influences on the outcome. A simulation study was conducted that demonstrated the possibility of exact correspondence if the same estimation method was applied. However, in the majority of realized specifications the estimates showed similar sizes but no correspondence.
In this paper, a translation of the visual description technique HyCharts to Hybrid Data-Flow Graphs (HDFG) is given. While HyCharts combine a data-flow and a control-flow oriented formalism for the specification of the architecture and the behavior of hybrid systems, HDFG allow the efficient and homogeneous internal representation of hybrid systems in computers and their automatic manipulation. HDFG represent a system as a data-flow network built from a set of fundamental functions.
The translation permits to combine the advantages of the different description techniques: The use of HyCharts for specification supports the abstract and formal interactive specification of hybrid systems, while HDFG permit the tool based optimization of hybrid systems and the synthesis of mixed-signal prototypes.
Frühe mathematische Bildung – Ziele und Gelingensbedingungen für den Elementar- und Primarbereich
(2017)
Im Rahmen der Schriftenreihe "Wissenschaftliche Untersuchungen zur Arbeit der Stiftung 'Haus der kleinen Forscher'" werden regelmäßig wissenschaftliche Beiträge von renommierten Expertinnen und Experten aus dem Bereich der frühen Bildung veröffentlicht. Diese Schriftenreihe dient einem fachlichen Dialog zwischen Stiftung, Wissenschaft und Praxis, mit dem Ziel, allen Kitas, Horten und Grundschulen in Deutschland fundierte Unterstützung für ihren frühkindlichen Bildungsauftrag zu geben.
Der vorliegende achte Band der Reihe mit einem Geleitwort von Kristina Reiss stellt die Ziele und Gelingensbedingungen mathematischer Bildung im Elementar- und Primarbereich in den Fokus.
Christiane Benz, Meike Grüßing, Jens Holger Lorenz, Christoph Selter und Bernd Wollring spezifizieren in ihrer Expertise pädagogisch-inhaltliche Zieldimensionen mathematischer Bildung im Kita- und Grundschulalter. Neben einer theoretischen Fundierung verschiedener Zielbereiche werden Instrumente für deren Messung aufgeführt. Des Weiteren erörtern die Autorinnen und Autoren Gelingensbedingungen für eine effektive und wirkungsvolle frühe mathematische Bildung in der Praxis. Sie geben zudem Empfehlungen für die Weiterentwicklung der Stiftungsangebote und die wissenschaftliche Begleitung der Stiftungsarbeit im Bereich Mathematik.
Das Schlusskapitel des Bandes beschreibt die Umsetzung dieser fachlichen Empfehlungen in den inhaltlichen Angeboten der Stiftung "Haus der kleinen Forscher".
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
We study exchangeable coalescent trees and the evolving genealogical trees in models for neutral haploid populations.
We show that every exchangeable infinite coalescent tree can be obtained as the genealogical tree of iid samples from a random marked metric measure space when the marks are added to the metric distances. We apply this representation to generalize the tree-valued Fleming-Viot process to include the case with dust in which the genealogical trees have isolated leaves.
Using the Donnelly-Kurtz lookdown approach, we describe all individuals ever alive in the population model by a random complete and separable metric space, the lookdown space, which we endow with a family of sampling measures. This yields a pathwise construction of tree-valued Fleming-Viot processes. In the case of coming down from infinity, we also read off a process whose state space is endowed with the Gromov-Hausdorff-Prohorov topology. This process has additional jumps at the extinction times of parts of the population.
In the case with only binary reproduction events, we construct the lookdown space also from the Aldous continuum random tree by removing the root and the highest leaf, and by deforming the metric in a way that corresponds to the time change that relates the Fleming-Viot process with a Dawson-Watanabe process. The sampling measures on the lookdown space are then image measures of the normalized local time measures.
We also show invariance principles for Markov chains that describe the evolving genealogy in Cannings models. For such Markov chains with values in the space of distance matrix distributions, we show convergence to tree-valued Fleming-Viot processes under the conditions of Möhle and Sagitov for the convergence of the genealogy at a fixed time to a coalescent with simultaneous multiple mergers. For the convergence of Markov chains with values in the space of marked metric measure spaces, an additional assumption is needed in the case with dust.
Random constraint satisfaction problems have been on the agenda of various sciences such as discrete mathematics, computer science, statistical physics and a whole series of additional areas of application since the 1990s at least. The objective is to find a state of a system, for instance an assignment of a set of variables, satisfying a bunch of constraints. To understand the computational hardness as well as the underlying random discrete structures of these problems analytically and to develop efficient algorithms that find optimal solutions has triggered a huge amount of work on random constraint satisfaction problems up to this day. Referring to this context in this thesis we present three results for two random constraint satisfaction problems. ...
Based on a non-rigorous formalism called the “cavity method”, physicists have made intriguing predictions on phase transitions in discrete structures. One of the most remarkable ones is that in problems such as random k-SAT or random graph k-coloring, very shortly before the threshold for the existence of solutions there occurs another phase transition called condensation [Krzakala et al., PNAS 2007]. The existence of this phase transition seems to be intimately related to the difficulty of proving precise results on, e. g., the k-colorability threshold as well as to the performance of message passing algorithms. In random graph k-coloring, there is a precise conjecture as to the location of the condensation phase transition in terms of a distributional fixed point problem. In this paper we prove this conjecture, provided that k exceeds a certain constant k0.
The condensation phase transition and the number of solutions in random graph and hypergraph models
(2016)
This PhD thesis deals with two different types of questions on random graph and random hypergraph structures.
One part is about the proof of the existence and the determination of the location of the condensation phase transition. This transition will be investigated for large values of $k$ in the problem of $k$-colouring random graphs and in the problem of 2-colouring random $k$-uniform hypergraphs, where in the latter case we investigate a more general model with finite inverse temperature.
The other part deals with establishing the limiting distribution of the number of solutions in these structures in density regimes below the condensation threshold.
Algorithms for the Maximum Cardinality Matching Problem which greedily add edges to the solution enjoy great popularity. We systematically study strengths and limitations of such algorithms, in particular of those which consider node degree information to select the next edge. Concentrating on nodes of small degree is a promising approach: it was shown, experimentally and analytically, that very good approximate solutions are obtained for restricted classes of random graphs. Results achieved under these idealized conditions, however, remained unsupported by statements which depend on less optimistic assumptions.
The KarpSipser algorithm and 1-2-Greedy, which is a simplified variant of the well-known MinGreedy algorithm, proceed as follows. In each step, if a node of degree one (resp. at most two) exists, then an edge incident with a minimum degree node is picked, otherwise an arbitrary edge is added to the solution.
We analyze the approximation ratio of both algorithms on graphs of degree at most D. Families of graphs are known for which the expected approximation ratio converges to 1/2 as D grows to infinity, even if randomization against the worst case is used. If randomization is not allowed, then we show the following convergence to 1/2: the 1-2-Greedy algorithm achieves approximation ratio (D-1)/(2D-3); if the graph is bipartite, then the more restricted KarpSipser algorithm achieves the even stronger factor D/(2D-2). These guarantees set both algorithms apart from other famous matching heuristics like e.g. Greedy or MRG: these algorithms depend on randomization to break the 1/2-barrier even for paths with D=2. Moreover, for any D our guarantees are strictly larger than the best known bounds on the expected performance of the randomized variants of Greedy and MRG.
To investigate whether KarpSipser or 1-2-Greedy can be refined to achieve better performance, or be simplified without loss of approximation quality, we systematically study entire classes of deterministic greedy-like algorithms for matching. Therefore we employ the adaptive priority algorithm framework by Borodin, Nielsen, and Rackoff: in each round, an adaptive priority algorithm requests one or more edges by formulating their properties---like e.g. "is incident with a node of minimum degree"---and adds the received edges to the solution. No constraints on time and space usage are imposed, hence an adaptive priority algorithm is restricted only by its nature of picking edges in a greedy-like fashion. If an adaptive priority algorithm requests edges by processing degree information, then we show that it does not surpass the performance of KarpSipser: our D/(2D-2)-guarantee for bipartite graphs is tight and KarpSipser is optimal among all such "degree-sensitive" algorithms even though it uses degree information merely to detect degree-1 nodes. Moreover, we show that if degrees of both nodes of an edge may be processed, like e.g. the Double-MinGreedy algorithm does, then the performance of KarpSipser can only be increased marginally, if at all. Of special interest is the capability of requesting edges not only by specifying the degree of a node but additionally its set of neighbors. This enables an adaptive priority algorithm to "traverse" the input graph. We show that on general degree-bounded graphs no such algorithm can beat factor (D-1)/(2D-3). Hence our bound for 1-2-Greedy is tight and this algorithm performs optimally even though it ignores neighbor information. Furthermore, we show that an adaptive priority algorithm deteriorates to approximation ratio exactly 1/2 if it does not request small degree nodes. This tremendous decline of approximation quality happens for graphs on which 1-2-Greedy and KarpSipser perform optimally, namely paths with D=2. Consequently, requesting small degree nodes is vital to beat factor 1/2.
Summarizing, our results show that 1-2-Greedy and KarpSipser stand out from known and hypothetical algorithms as an intriguing combination of both approximation quality and conceptual simplicity.
Die letzten Jahrzehnte brachten einen enormen Zuwachs des Wissens und Verständnisses über die molekularen Prozesse des Lebens.Möglich wurde dieser Zuwachs durch die Entwicklung diverser Methoden, mit denen beispielsweise gezielt die Konzentration einzelner Stoffe gemessen werden kann oder gar alle anwesenden Metaboliten eines biologischen Systems erfasst werden können. Die großflächige Anwendung dieser Methoden führte zur Ansammlung vieler unterschiedlicher -om-Daten, wie zum Beispiel Metabolom-, Proteom- oder Transkriptoms-Datensätzen. Die Systembiologie greift auf solche Daten zurück, um mathematische Modelle biologischer Systeme zu erstellen, und ermöglicht so ein Studium biologischer Systeme auch außerhalb des Labors.
Für größere biologische Systeme stehen jedoch meistens nicht alle Informationen über Stoffkonzentrationen oder Reaktionsgeschwindigkeiten zur Verfügung, um eine quantitative Modellierung, also die Beschreibung von Änderungsraten kontinuierlicher Variablen, durchführen zu können. In einem solchen Fall wird auf Methoden der qualitativen Modellierung zurückgegriffen. Eine dieser Methoden sind die Petrinetze (PN), welche in den 1960er Jahren von Carl Adam Petri entwickelt wurden, um nebenläufige Prozesse im technischen Umfeld zu beschreiben. Seit Anfang der 1990er Jahre finden PN auch Anwendung in der Systembiologie, um zum Beispiel metabolische Systeme oder Signaltransduktionswege zu modellieren. Einer der Vorteile dieser Methode ist zudem, dass Modelle als qualitative Beschreibung des Systems begonnen werden können und im Laufe der Zeit um quantitative Beschreibungen ergänzt werden können.
Zur Modellierung und Analyse von PN existieren bereits viele Anwendungen. Da das Konzept der PN jedoch ursprünglich nicht für die Systembiologie entwickelt wurde und meist im technischen Bereich verwendet wird, existierten kaum Anwendungen, die für den Einsatz in der Systembiologie entwickelt wurden. Daher ist auch die Durchführung der für die Systembiologie entwickelten Analysemethoden für PN nicht mit diesen Anwendungen möglich. Die Motivation des ersten Teiles dieser Arbeit war daher, eine Anwendung zu schaffen, die speziell für die PN-Modellierung und Analyse in der Systembiologie gedacht ist, also in ihren Analysemethoden und ihrer Terminologie sich an den Bedürfnissen der Systembiologie orientiert. Zudem sollte die Anwendung den Anwender bei der Auswertung der Resultate der Analysemethoden visuell unterstützen, indem diese direkt visuell im Kontext des PN gesetzt werden. Da bei komplexeren PN die Resultate der Analysemethoden in ihrer Zahl drastisch anwachsen, wird eine solche Auswertung dieser notwendig. Aus dieser Motivation heraus entstand die Anwendung MonaLisa, dessen Implementierung und Funktionen im ersten Teil der vorliegenden Arbeit beschrieben werden. Neben den klassischen Analysemethoden für PN, wie den Transitions- und Platz-Invarianten, mit denen grundlegende funktionale Module innerhalb eines PN gefunden werden können, wurden weitere, meist durch die Systembiologie entwickelte, Analysemethoden implementiert. Dazu zählen zum Beispiel die Minimal Cut Sets, die Maximal Common Transitions Sets oder Knock-out-Analysen. Mit MonaLisa ist aber auch die Simulation des dynamischen Verhaltens des modellierten biologischen Systems möglich. Hierzu stehen sowohl deterministische als auch stochastische Verfahren, beispielsweise der Algorithmus von Gillespie zur Simulation chemischer Systeme, zur Verfügung. Für alle zur Verfügung gestellten Analysemethoden wird ebenfalls eine visuelle Repräsentation ihrer Resultate bereitgestellt. Im Falle der Invarianten werden deren Elemente beispielsweise in der Visualisierung des PN eingefärbt. Die Resultate der Simulationen oder der topologischen Analyse können durch verschiedene Graphen ausgewertet werden. Um eine Schnittstelle zu anderen Anwendungen zu schaffen, wurde für MonaLisa eine Unterstützung einiger gängiger Dateiformate der Systembiologie geschaffen, so z.B. für SBML und KGML.
Der zweite Teil der Arbeit beschäftigt sich mit der topologischen Analyse eines Datensatzes von 2641 Gesamtgenom Modellen aus der path2models-Datenbank. Diese Modelle wurden automatisiert aus dem vorhandenen Wissen der KEGG- und der MetaCyc-Datenbank erstellt. Die Analyse der topologischen Eigenschaften eines Graphen ermöglicht es, grundlegende Aussagen über die globalen Eigenschaften des modellierten Systems und dessen Entstehungsprozesses zu treffen. Daher ist eine solche Analyse oft der erste Schritt für das Verständnis eines komplexen biologischen Systems. Für die Analyse der Knotengrade aller Reaktionen und Metaboliten dieser Modelle wurden sie in einem ersten Schritt in PN transformiert. Die topologischen Eigenschaften von metabolischen Systemen werden in der Literatur schon sehr gut beschrieben, wobei die Untersuchungen meist auf einem Netzwerk der Metaboliten oder der Reaktionen basieren. Durch die Verwendung von PN wird es möglich, die topologischen Eigenschaften von Metaboliten und Reaktionen in einem gemeinsamen Netzwerk zu untersuchen. Die Motivation hinter diesen Untersuchungen war, zu überprüfen, ob die schon beschriebenen Eigenschaften auch für eine Darstellung als PN zutreffen und welche neuen Eigenschaften gefunden werden können. Untersucht wurden der Knotengrad und der Clusterkoeffizient der Modelle. Es wird gezeigt, dass einige wenige Metaboliten mit sehr hohem Knotengrad für eine ganze Reihe von Effekten verantwortlich sind, wie beispielsweise dass die Verteilung des Knotengrades und des Clusterkoeffizienten, im Bezug auf Metaboliten, skalenfrei sind und dass sie für die Vernetzung der Nachbarschaft von Reaktionen verantwortlich sind. Weiter wird gezeigt, dass die Größe eines Modelles Einfluss auf dessen topologische Eigenschaften hat. So steigt die Vernetzung der Nachbarschaft eines Metaboliten, je mehr Metaboliten in einem biologischen System vorhanden sind, gleiches gilt für den durchschnittlichen Knotengrad der Metaboliten.
Given an Abelian semi-group (A, +), an A-valued curvature measure is a valuation with values in A-valued measures. If A = R, complete classifications of Hausdorff-continuous translation-invariant SO(n)-invariant valuations and curvature measures were obtained by Hadwiger and Schneider, respectively. More recently, characterisation results have been achieved for curvature measures with values in A = Sym^p R^n and A = Sym^2 Λ^q R^n for p, q ≥ 1 with varying assumptions as for their invariance properties.
In the present work, we classify all smooth translation-invariant SO(n)-covariant curvature measures with values in any SO(n)-representation in terms of certain differential forms on the sphere bundle S R^n and describe their behaviour under the globalisation map. The latter result also yields a similar classification of all continuous SO(n)-module-valued SO(n)-covariant valuations. Furthermore, a decomposition of the space of smooth translation-
invariant scalar-valued curvature measures as an SO(n)-module is obtained. As a corollary, we construct explicit bases of continuous translation-invariant scalar-valued valuations and smooth translation-invariant scalar-valued curvature measures.