Mathematik
Refine
Year of publication
Document Type
- Article (112)
- Doctoral Thesis (76)
- Preprint (47)
- diplomthesis (39)
- Book (25)
- Report (22)
- Conference Proceeding (18)
- Bachelor Thesis (8)
- Contribution to a Periodical (8)
- Diploma Thesis (8)
Has Fulltext
- yes (375) (remove)
Is part of the Bibliography
- no (375)
Keywords
- Kongress (6)
- Kryptologie (5)
- Mathematik (5)
- Stochastik (5)
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
- Online-Publikation (4)
- Statistik (4)
- Finanzmathematik (3)
- LLL-reduction (3)
Institute
- Mathematik (375)
- Informatik (55)
- Präsidium (22)
- Physik (6)
- Psychologie (6)
- Geschichtswissenschaften (5)
- Sportwissenschaften (5)
- Biochemie und Chemie (3)
- Biowissenschaften (3)
- Geographie (3)
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
The relation between the complexity of a time-switched dynamics and the complexity of its control sequence depends critically on the concept of a non-autonomous pullback attractor. For instance, the switched dynamics associated with scalar dissipative affine maps has a pullback attractor consisting of singleton component sets. This entails that the complexity of the control sequence and switched dynamics, as quantified by the topological entropy, coincide. In this paper we extend the previous framework to pullback attractors with nontrivial components sets in order to gain further insights in that relation. This calls, in particular, for distinguishing two distinct contributions to the complexity of the switched dynamics. One proceeds from trajectory segments connecting different component sets of the attractor; the other contribution proceeds from trajectory segments within the component sets. We call them “macroscopic” and “microscopic” complexity, respectively, because only the first one can be measured by our analytical tools. As a result of this picture, we obtain sufficient conditions for a switching system to be more complex than its unswitched subsystems, i.e., a complexity analogue of Parrondo’s paradox.
Neuronal activity in the brain is often investigated in the presence of stimuli, termed externally driven activity. This stimulus-response-perspective has long been focussed on in order to find out how the nervous system responds to different stimuli. The neuronal response consists of baseline activity, so called spontaneous activity1, and activity which is caused by the stimulus. The baseline activity is often considered as constant over time which allows the identification of the stimulus-evoked part of the neuronal response by averaging over a set of trials.
However, during the last years it has been recognized that own dynamics of the nervous system plays an important role in information processing. As a consequence, spontaneous activity is no longer regarded only as background ’noise’ and its role in cortical processing is reconsidered. Therefore, the study of spontaneous firing pattern gains more importance as these patterns may shape neuronal responses to a larger extent as previously thought. For example, recent findings suggest that prestimulus activity can predict a person’s visual perception performance on a single trial basis (Hanslmayr et al., 2007). In this context, Ringach (2009) remarks that one can learn much about even the quiescent state of the brain which “underlies the importance of understanding cortical responses as the fusion of ongoing activity and sensory input”.
Taking into account that spontaneous activity reflects anything else but noise, new challenges arise when analysing neuronal data. In this thesis one of these problems related to the analysis of neuronal activity will be adressed, namely the nonstationarity of firing rates.
The present work consists of four chapters. First of all the introduction gives neurophysiological background information to get an idea of neuronal information processing. Afterwords the theory of point processes is provided which forms the basis for modeling neuronal spiking data. In the last section of the introduction a statement of the problem is given. Chapter 2 proposes an easily applicable statistical method for the detection of nonstationarity. It is applied to simulations and to real data in order to show its capabilities. Thereafter, four other approaches are presented which provide useful illustrations concerning the nonstationarity of the firing rate but share the problem that one cannot make objective statements on the basis of their results. They were developed in the course of establishing a suitable method. In chapter 4 the results are discussed and suggestions for further study are given.
A stochastic model for the joint evaluation of burstiness and regularity in oscillatory spike trains
(2013)
The thesis provides a stochastic model to quantify and classify neuronal firing patterns of oscillatory spike trains. A spike train is a finite sequence of time points at which a neuron has an electric discharge (spike) which is recorded over a finite time interval. In this work, these spike times are analyzed regarding special firing patterns like the presence or absence of oscillatory activity and clusters (so called bursts). These bursts do not have a clear and unique definition in the literature. They are often fired in response to behaviorally relevant stimuli, e.g., an unexpected reward or a novel stimulus, but may also appear spontaneously. Oscillatory activity has been found to be related to complex information processing such as feature binding or figure ground segregation in the visual cortex. Thus, in the context of neurophysiology, it is important to quantify and classify these firing patterns and their change under certain experimental conditions like pharmacological treatment or genetical manipulation. In neuroscientific practice, the classification is often done by visual inspection criteria without giving reproducible results. Furthermore, descriptive methods are used for the quantification of spike trains without relating the extracted measures to properties of the underlying processes.
For that reason, a doubly stochastic point process model is proposed and termed 'Gaussian Locking to a free Oscillator' - GLO. The model has been developed on the basis of empirical observations in dopaminergic neurons and in cooperation with neurophysiologists. The GLO model uses as a first stage an unobservable oscillatory background rhythm which is represented by a stationary random walk whose increments are normally distributed. Two different model types are used to describe single spike firing or clusters of spikes. For both model types, the distribution of the random number of spikes per beat has different probability distributions (Bernoulli in the single spike case or Poisson in the cluster case). In the second stage, the random spike times are placed around their birth beat according to a normal distribution. These spike times represent the observed point process which has five easily interpretable parameters to describe the regularity and the burstiness of the firing patterns.
It turns out that the point process is stationary, simple and ergodic. It can be characterized as a cluster process and for the bursty firing mode as a Cox process. Furthermore, the distribution of the waiting times between spikes can be derived for some parameter combination. The conditional intensity function of the point process is derived which is also called autocorrelation function (ACF) in the neuroscience literature. This function arises by conditioning on a spike at time zero and measures the intensity of spikes x time units later. The autocorrelation histogram (ACH) is an estimate for the ACF. The parameters of the GLO are estimated by fitting the ACF to the ACH with a nonlinear least squares algorithm. This is a common procedure in neuroscientific practice and has the advantage that the GLO ACF can be computed for all parameter combinations and that its properties are closely related to the burstiness and regularity of the process. The precision of estimation is investigated for different scenarios using Monte-Carlo simulations and bootstrap methods.
The GLO provides the neuroscientist with objective and reproducible classification rules for the firing patterns on the basis of the model ACF. These rules are inspired by visual inspection criteria often used in neuroscientific practice and thus support and complement usual analysis of empirical spike trains. When applied to a sample data set, the model is able to detect significant changes in the regularity and burst behavior of the cells and provides confidence intervals for the parameter estimates.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
Der im Jahr 2004 am IWR Heidelberg entwickelte Neuronen Rekonstruktions-Algorithmus NeuRA extrahiert die Oberflächenmorphologie oder ein Merkmalskelett von Neuronenzellen, die mittels konfokaler oder Zwei-Photon-Mikroskopie als Bildstapel aufgenommen wurden. Hierbei wird zunächst das Signal-zu-Rausch-Verhältnis der Rohdaten durch Anwendung des speziell entwickelten trägheitsbasierten anisotropen Diffusionsfilters verbessert, dann das Bild nach der statistischen Methode von Otsu segmentiert und anschließend das Oberflächengitter der Neuronenzellen durch den Regularisierten Marching-Tetrahedra-Algorithmus rekonstruiert oder das Merkmalskelett mit einer speziellen Thinning-Methode extrahiert. In einschlägigen Vorarbeiten wurde mit Hilfe solcher Rekonstruktionen von Neuronenzellkernen gezeigt, dass diese, entgegen der vorher üblichen Meinung, nicht notwendigerweise rund sind, sondern Einstülpungen, sogenannte Invaginationen, aufweisen können. Der Einfluss der Invaginationen auf die Ausbreitung von Calciumionen innerhalb solcher Zellkerne konnte durch entsprechende numerische Simulationen systematisch untersucht werden.
Um diese Rekonstruktionsmethode auf hochaufgelöste Mikroskopaufnahmen anwenden zu können, wurden im Rahmen der vorliegenden Arbeit, die in NeuRA verwendeten Verfahren auf Basis von Nvidia CUDA auf moderner Grafikhardware parallelisiert und unter dem Namen NeuRA2 optimiert und neu implementiert. Erzielte Beschleunigungen von bis zu einem Faktor 100, bei Verwendung einer Hochleistungsgrafikkarte, zeigen, dass sich die moderne Grafikarchitektur besonders für die Parallelisierung von Bildverarbeitungsoperatoren eignet. Insbesondere das Herzstück des Rekonstruktions-Algorithmus - der sehr rechenintensive trägheitsbasierte anisotrope Diffusionsfilter - wurde durch eine clusterbasierte Implementierung, welche die parallele Verwendung beliebig vieler Grafikkarten ermöglicht, immens beschleunigt.
Darüber hinaus wurde in dieser Arbeit das Konzept von NeuRA verallgemeinert, um nicht nur Neuronenzellen aus konfokalen oder Zwei-Photon-Bildstapeln rekonstruieren zu können, sondern vielmehr die Oberflächenmorphologie oder Merkmalskelette von allgemeinen Objekten aus beliebigen Bildstapeln zu extrahieren. Dabei wird das ursprüngliche Konzept von Rauschreduktion, Bildsegmentierung und Rekonstruktion beibehalten. Für die einzelnen Schritte stehen aber nun eine Vielfalt von Bildverarbeitungs- und Rekonstruktionsmethoden zur Verfügung, die abhängig von der Beschaffenheit der Daten und den Anforderungen an die Rekonstruktion, ausgewählt werden können. Die meisten dieser Verfahren wurden ebenfalls auf Basis moderner Grafikhardware parallelisiert.
Die weiterentwickelten Rekonstruktionsverfahren wurden in mehreren Anwendungen eingesetzt: Einerseits wurden Oberflächen- und Volumengitter aus konfokalen Bildstapeln und Computertomographie-Aufnahmen generiert, die für verschiedene numerische Simulationen eingesetzt wurden oder eingesetzt werden sollen. Des Weiteren wurden über zwanzig antike Keramikgefäße und Fragmente anderer antiker Keramiken rekonstruiert. Hierbei wurde jeweils die Rohdichte und bei den komplett erhaltenen Gefäßen das Füllvolumen berechnet. Es konnte gezeigt werden, dass dieses Verfahren exakter ist als die in der Archäologie üblichen Methoden zur Volumenbestimmung von Gefäßen. Außerdem zeigt sich eine Abhängigkeit der Rohdichte der rekonstruierten Objekte vom jeweils verwendeten Keramiktyp. Eine Analyse, wie genau die Krümmung von Objekten durch die Approximation von Dreiecksgittern dargestellt werden kann, wurde ebenfalls durchgeführt.
Zusätzlich wurde ein Verfahren zur Rekonstruktion der Merkmalskelette lebender Neuronenzellen oder Teilen von Neuronenzellen entwickelt. Bei den damit rekonstruierten Daten wurden einzelne dendritische Dornfortsätze, auch Spines genannt, hochaufgelöst mikroskopiert. Auf Basis dieser Rekonstruktionen kann die Länge von Dendriten oder einzelner Spines, der Winkel zwischen Dendritenverzweigungen, sowie das Volumen einzelner Spines automatisch berechnet werden. Mit Hilfe dieser Daten kann der Einfluss pharmakologischer Präparate und mechanischer Eingriffe in das Nervensystem von lebenden Versuchstieren systematisch untersucht werden.
Eine Adaption der beschriebenen Rekonstruktionsverfahren ist aufgrund deren einfacher Erweiterbarkeit und flexibler Verwendbarkeit für zukünftige Anwendungen leicht möglich.
Die anaerobe Fermentation beschreibt den Abbau organischen Materials unter Ausschluss von Sauerstoff und setzt sich aus vier Prozessphasen (Hydrolyse, Acidogenese, Acetogenese und Methanogenese) zusammen. Im Rahmen dieser Arbeit konnte die Aufteilung dieser vier Prozessphasen auf die beiden Stufen eines zweistufigen zweiphasigen Biogas-Reaktors genau bestimmt werden. Die Aufteilung ist von entscheidender Bedeutung für zukünftige Arbeiten, da dadurch genau festgelegt werden kann, welche Stoffe bei den Messungen und bei der Modellierung berücksichtigt werden müssen.
Im Jahre 2002 wurde von der IWA Taskgroup das ADM1-Modell, welches alle vier Prozessphasen der anaeroben Fermentation berücksichtigt, veröffentlicht. In der vorliegenden Arbeit wird ein räumlich aufgelöstes Modell für die anaerobe Fermentation erarbeitet, in dem das ADM1-Modell mit einem Strömungsmodell gekoppelt wird. Anschließend wird ein reduziertes Simulationsmodell für acetoklastische Methanogenese in einem zweistufigen zweiphasigen Biogasreaktor erstellt. Anhand von Messdaten wird gezeigt, dass der Abbau von Essigsäure zu Methan innerhalb des Reaktors durch das Simulationsmodell gut wiedergegeben werden kann.
Anschließend wird das validierte Modell verwendet um Regeln für eine optimale Steuerung des Reaktors herzuleiten und weiterhin wird mit Hilfe der lokalen Methanproduktion die Effektivität des Reaktors bestimmt. Die erlangten Informationen können verwendet werden, um den Biogas-Reaktor zu optimieren.
Eine Billion ist mathematisch leicht darstellbar. Es ist eine Eins mit 12 Nullen: 1 000 000 000 000, mathematisch kurz und prägnant als 10^12 geschrieben. Aber darstellbar heißt nicht unbedingt vorstellbar. Versuchen wir, diese Anzahlen zu veranschaulichen, entstehen teilweise surreale, aber einprägsame Bilder.
Sensitivity of output of a linear operator to its input can be quantified in various ways. In Control Theory, the input is usually interpreted as disturbance and the output is to be minimized in some sense. In stochastic worst-case design settings, the disturbance is considered random with imprecisely known probability distribution. The prior set of probability measures can be chosen so as to quantify how far the disturbance deviates from the white-noise hypothesis of Linear Quadratic Gaussian control. Such deviation can be measured by the minimal Kullback-Leibler informational divergence from the Gaussian distributions with zero mean and scalar covariance matrices. The resulting anisotropy functional is defined for finite power random vectors. Originally, anisotropy was introduced for directionally generic random vectors as the relative entropy of the normalized vector with respect to the uniform distribution on the unit sphere. The associated a-anisotropic norm of a matrix is then its maximum root mean square or average energy gain with respect to finite power or directionally generic inputs whose anisotropy is bounded above by a >= 0. We give a systematic comparison of the anisotropy functionals and the associated norms. These are considered for unboundedly growing fragments of homogeneous Gaussian random fields on multidimensional integer lattice to yield mean anisotropy. Correspondingly, the anisotropic norms of finite matrices are extended to bounded linear translation invariant operators over such fields.
Statistical analysis on various stocks reveals long range dependence behavior of the stock prices that is not consistent with the classical Black and Scholes model. This memory or nondeterministic trend behavior is often seen as a reflection of market sentiments and causes that the historical volatility estimator becomes unreliable in practice. We propose an extension of the Black and Scholes model by adding a term to the original Wiener term involving a smoother process which accounts for these effects. The problem of arbitrage will be discussed. Using a generalized stochastic integration theory [8], we show that it is possible to construct a self financing replicating portfolio for a European option without any further knowledge of the extension and that, as a consequence, the classical concept of volatility needs to be re-interpreted.
AMS subject classifications: 60H05, 60H10, 90A09.
Integral equations for the mean-square estimate are obtained for the linear filtering problem, in which the noise generating the signal is a fractional Brownian motion with Hurst index h∈(3/4,1) and the noise in the observation process includes a fractional Brownian motion as well as a Wiener process. AMS subject classifications: 93E11, 60G20, 60G35.
Within the last twenty years, the contraction method has turned out to be a fruitful approach to distributional convergence of sequences of random variables which obey additive recurrences. It was mainly invented for applications in the real-valued framework; however, in recent years, more complex state spaces such as Hilbert spaces have been under consideration. Based upon the family of Zolotarev metrics which were introduced in the late seventies, we develop the method in the context of Banach spaces and work it out in detail in the case of continuous resp. cadlag functions on the unit interval. We formulate sufficient conditions for both the sequence under consideration and its possible limit which satisfies a stochastic fixed-point equation, that allow to deduce functional limit theorems in applications. As a first application we present a new and considerably short proof of the classical invariance principle due to Donsker. It is based on a recursive decomposition. Moreover, we apply the method in the analysis of the complexity of partial match queries in two-dimensional search trees such as quadtrees and 2-d trees. These important data structures have been under heavy investigation since their invention in the seventies. Our results give answers to problems that have been left open in the pioneering work of Flajolet et al. in the eighties and nineties. We expect that the functional contraction method will significantly contribute to solutions for similar problems involving additive recursions in the following years.
We provide a mathematical framework to model continuous time trading in limit order markets of a small investor whose transactions have no impact on order book dynamics. The investor can continuously place market and limit orders. A market order is executed immediately at the best currently available price, whereas a limit order is stored until it is executed at its limit price or canceled. The limit orders can be chosen from a continuum of limit prices.
In this framework we show how elementary strategies (hold limit orders with only finitely many different limit prices and rebalance at most finitely often) can be extended in a suitable
way to general continuous time strategies containing orders with infinitely many different limit prices. The general limit buy order strategies are predictable processes with values in the set of nonincreasing demand functions (not necessarily left- or right-continuous in the price variable). It turns out that this family of strategies is closed and any element can be approximated by a sequence of elementary strategies.
Furthermore, we study Merton’s portfolio optimization problem in a specific instance of this framework. Assuming that the risky asset evolves according to a geometric Brownian
motion, a proportional bid-ask spread, and Poisson execution times for the limit orders of the small investor, we show that the optimal strategy consists in using market orders to keep the
proportion of wealth invested in the risky asset within certain boundaries, similar to the result for proportional transaction costs, while within these boundaries limit orders are used to profit from the bid-ask spread.
Forschungsbedarf. Wenn man die mathematische Entwicklung in der frühen Kindheit als einen ganzheitlichen Prozess betrachtet, so gilt es, die Forschungsperspektive für unterschiedliche Lernorte zu öffnen. Einer dieser Lernorte ist die Familie, in welchem mathematische Bildungsprozesse der frühen Kindheit entscheidend von elterlichem Support beeinflusst werden. Bei der Untersuchung dieses Lernortes ist in der deutschsprachigen Mathematik-didaktik bisher eine Beschränkung auf Interviewstudien zu beobachten, in denen die Vorstellungen und Überzeugungen der Eltern zum Mathematiklernen und zur Mathematik rekonstruiert werden. Beobachtungsstudien, welche unabhängig von der Perspektive der Eltern Realisierungen von Support untersuchen, liegen bisher nicht vor. Die vorliegende Dissertation liefert einen Beitrag zur Bearbeitung dieses spezifischen Forschungsbedarfs in der deutschsprachigen Mathematikdidaktik.
Die Studie. Die durchgeführte, längsschnittlich angelegte Videostudie, die der Dissertation zugrunde liegt, ist der rekonstruktiven Sozialforschung und im Speziellen der Interpretativen Forschung in der Mathematikdidaktik zuzuordnen. Es wurden zehn Vorschulkinder und ihre Mütter ein Jahr lang in offenen Vorlese- und Spielsituationen begleitet. Als Grundlage der Analyse dienen Transkripte von ausgewählten Szenen. Die Transkriptanalyse ist durchgehend am Prinzip der Komparation orientiert und erfolgt zweischrittig: In einer Interaktionsanalyse wird zunächst die interaktionale Entwicklung des mathematischen Themas in der jeweiligen Szenen nachgezeichnet; darauf aufbauend wird die Diskursszene in einer Support-Fokussierung im Hinblick auf das hergestellte Support-System ausgedeutet.
Der Forschungsgegenstand. Gemäß der Verortung in der Interpretativen Forschung wird der Forschungsgegenstand aus sozialkonstruktivistisch-interaktionistischer Perspektive betrachtet. Demzufolge ist der Support in mathematischen Mutter-Kind-Diskursen kein einseitiges Helfen der Mutter, sondern ein von Mutter und Kind gemeinsam in der Interaktion hergestelltes Support-System.
Ergebnisse. Der Support in mathematischen Mutter-Kind-Diskursen wird in der vorliegenden Dissertation als ein Mathematics Acquisition Support System (MASS) beschrieben und aus zwei unterschiedlichen Perspektiven beleuchtet.
Die erste Perspektive ist eine allgemein sozialisationstheoretische und zeigt, dass das MASS in mathematischen Mutter-Kind-Diskursen auf unterschiedliche übergeordnete Aufgaben ausgerichtet sein kann: auf ein Mitmachen, auf einen Entwicklungsfortschritt oder auf eine freie Erkundung des Kindes. Diese Typisierung von Support-Jobs verdeutlicht, dass sich Support-Systeme gegenstandsspezifisch unterscheiden. Während das Discourse Acquisition Support System (DASS), welches im Hinblick auf die Entwicklung von Erzählkompetenz beschrieben
wurde (vgl. Hausendorf und Quasthoff 2005), ausschließlich auf eine übergeordnete Aufgabe ausgerichtet ist, kann das MASS über die Arbeit an unterschiedlichen Support-Jobs hergestellt werden. So sind Vorschulkinder im familialen Kontext in mathematische Diskurse eingebunden, die an unterschiedlichen Support-Jobs ausgerichtet sind. Dieses Ergebnis gewinnt dadurch zusätzliche Bedeutung, dass die Support-Jobs in den mathematischen Mutter-Kind-Diskursen als charakterisierend für die jeweiligen Mutter-Kind-Paare rekonstruiert werden konnten. Sowohl in Komparationen über die Zeit als auch in solchen über das Material etablieren und bearbeiten Mutter und Kind mit einer gewissen Stabilität einen spezifischen Support-Job. Die Biographie von Vorschulkindern als Mathematiklerner wird in der Familie also auf spezifische Weise geprägt.
Die zweite Perspektive ist eine genuin mathematikdidaktische und gliedert sich in zwei Teilperspektiven auf. Eine fokussiert auf das Mathematiklernen, die andere auf die Mathematik. In der Perspektive des Mathematiklernens werden Realisierungen von alltagspädagogischen Konzepten typisiert. Dabei zeigt sich, wie unterschiedlich Vorschulkinder als Mathematiklerner in Support-Systeme eingebunden werden: als Sachkundiger, als Wissender und als Denker (vgl. Olson und Bruner 1996). Anhand dieser gebildeten Typen wird das Forschungsfeld dahingehend strukturiert, welchen Konzepten vom Mathematiklernen und -lehren Vorschulkinder im familialen Kontext begegnen. In der Perspektive der Mathematik wird schließlich erarbeitet, wie Vorschulkinder und ihre Mütter in und mit ihrem je spezifischen MASS die Mathematik in den Sinnbereich ihres Alltags einbinden (vgl. Bachmair 2007): als Hilfsmittel, als Lernstoff und als Beschreibungs- und Denkmittel. Damit sind drei Typen mathematischer Sozialisation im familialen Kontext beschrieben.
Insgesamt macht die Verbindung aus einer allgemein sozialisationstheoretischen und einer mathematikdidaktischen Perspektive umfassend beschreibbar, wie Kinder im familialen Kontext in Support-Systeme zum Mathematiklernen eingebunden sind. Die Bildung unterschiedlicher Typen konnte sowohl im Hinblick auf die allgemeine Fokussierung des MASS als auch im Hinblick auf die damit realisierten Konzepte von Mathematiklernen und Mathematik vor-genommen werden. Damit ist der Lernort der Familie für die frühe mathematische Bildung und den Forschungsgegenstand des Supports strukturiert und anhand von Fallstudien beschrieben. Dieses Forschungsergebnis ist eine neue Einsicht über den bisher nur wenig erforschten Lernort der Familie und gleichzeitig eine Herausforderung für den Mathematikunterricht der Grundschule. Denn im Sinne einer Passung zwischen Familie und Schule gilt es, an die jeweiligen Interaktionserfahrungen der Kinder anzuknüpfen.
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
In recent years using symmetry has proven to be a very useful tool to simplify computations in semidefinite programming. This dissertation examines the possibilities of exploiting discrete symmetries in three contexts: In SDP-based relaxations for polynomial optimization, in testing positivity of symmetric polynomials, and combinatorial optimization. In these contexts the thesis provides new ways for exploiting symmetries and thus deeper insight in the paradigms behind the techniques and studies a concrete combinatorial optimization question.
Poster presentation from Twentieth Annual Computational Neuroscience Meeting: CNS*2011 Stockholm, Sweden. 23-28 July 2011. In statistical spike train analysis, stochastic point process models usually assume stationarity, in particular that the underlying spike train shows a constant firing rate (e.g. [1]). However, such models can lead to misinterpretation of the associated tests if the assumption of rate stationarity is not met (e.g. [2]). Therefore, the analysis of nonstationary data requires that rate changes can be located as precisely as possible. However, present statistical methods focus on rejecting the null hypothesis of stationarity without explicitly locating the change point(s) (e.g. [3]). We propose a test for stationarity of a given spike train that can also be used to estimate the change points in the firing rate. Assuming a Poisson process with piecewise constant firing rate, we propose a Step-Filter-Test (SFT) which can work simultaneously in different time scales, accounting for the high variety of firing patterns in experimental spike trains. Formally, we compare the numbers N1=N1(t,h) and N2=N2(t,h) of spikes in the time intervals (t-h,t] and (h,t+h]. By varying t within a fine time lattice and simultaneously varying the interval length h, we obtain a multivariate statistic D(h,t):=(N1-N2)/V(N1+N2), for which we prove asymptotic multivariate normality under homogeneity. From this a practical, graphical device to spot changes of the firing rate is constructed. Our graphical representation of D(h,t) (Figure 1A) visualizes the changes in the firing rate. For the statistical test, a threshold K is chosen such that under homogeneity, |D(h,t)|<K holds for all investigated h and t with probability 0.95. This threshold can indicate potential change points in order to estimate the inhomogeneous rate profile (Figure 1B). The SFT is applied to a sample data set of spontaneous single unit activity recorded from the substantia nigra of anesthetized mice. In this data set, multiple rate changes are identified which agree closely with visual inspection. In contrast to approaches choosing one fixed kernel width [4], our method has advantages in the flexibility of h.
In der folgenden Arbeit werden Eigenschaften von Verzweigungsprozessen in zufälliger Umgebung (engl. branching processes in random environment, kurz BPREs) untersucht. Das Modell geht auf Smith (1969) und Athreya (1971) zurück. Ein BPRE ist ein einfaches mathematisches Modell für die Entwicklung einer Population von apomiktischen (d.h. sich ungeschlechtlich fortpflanzenden) Individuen in diskreter Zeit, wobei die Umgebungsbedingungen einen Einfluß auf den Fortpflanzungserfolg der Individuen haben. Dabei wird angenommen, dass die Umgebungsbedingungen in den einzelnen Generationen zufällig sind, und zwar unabhängig und identisch verteilt von Generation zu Generation. Man denke z.B. an eine Population von Pflanzen mit einem einjährigen Zyklus, die in jedem Jahr anderen Witterungsbedingungen ausgesetzt sind, wobei angenommen wird, dass diese sich unabhängig und identisch verteilt ändern. In Kapitel 1 wird eines der wichtigsten Hilfsmittel zur Beschreibung von BPREs, die sogenannte zugehörige Irrfahrt, eingeführt und die Klassifizierung von BPREs beschrieben. In Kapitel 2 werden bekannte Resultate, insbesondere zu kritischen, schwach subkritischen und stark subkritischen Verzweigungsprozessen, wiederholt. In Kapitel 3 wird der sogenannte intermediär subkritische Fall behandelt. Mithilfe von funktionalen Grenzwertsätzen für bedingte Irrfahrten wird die genaue Asymptotik der Überlebenswahrscheinlichkeit des Prozesses, die bereits in Vatutin (2004) bewiesen wurde, unter etwas allgemeineren Voraussetzungen gezeigt. Anschließend wird untersucht, wie häufig der Prozess, bedingt auf Überleben, nur noch aus einem Individuum besteht. Im letzten Teil des Kapitels wird ein funktionaler Grenzwertsatz für die zugehörige Irrfahrt, bedingt aufs Überleben des Prozesses, gezeigt. Diese konvergiert, richtig skaliert, gegen einen Levy-Prozess, der darauf bedingt ist, sein Minimum am Ende anzunehmen. In Kapitel 4 werden große Abweichungen von BPREs untersucht. Die Ratenfunktion des BPRE wird sowohl für den Fall mindestens geometrisch schnell abfallender Tails, als auch für den Fall von Nachkommenverteilungen mit schweren Tails bestimmt. Wie sich herausstellt, hängt die Ratenfunktion von der Ratenfunktion der zugehörigen Irrfahrt, der exponentiellen Abfallrate der Überlebenswahrscheinlichkeit sowie, bei Nachkommenverteilungen mit schweren Tails, auch von den Tails derselben ab. In der Ratenfunktion spiegeln sich die wahrscheinlichsten Wege, um Ereignisse der großen Abweichungen zu realisieren, wider, was in Kapitel 4.3 beschrieben wird. In Kapitel 4.4 wird im speziellen Fall von Nachkommenverteilungen mit gebrochen-linearer Erzeugendenfunktion die Ratenfunktion für Ereignisse bestimmt, bei denen ein superkritischer BPRE überlebt, aber klein im Vergleich zum Erwartungswert bleibt. In Kapitel 4.5 werden die großen Abweichungen, bedingt auf die Umgebung untersucht (engl. quenched). In diesem Fall können unwahrscheinliche Ereignisse nur über den Verzweigungsmechanismus und nicht mehr über eine außergewöhnliche Umgebung realisiert werden. Zum Abschluss der Dissertation werden Verzweigungsprozesse in zufälliger Umgebung, bedingt auf Überle-ben, simuliert. Dazu wird eine Konstruktion nach Geiger (1999) angewendet. Diese erlaubt es, Galton-Watson Bäume in variierender Umgebung, bedingt auf Überleben, entlang einer Ahnenlinie zu konstruieren. Der Fall geometrischer Nachkommenverteilungen, auf den wir uns in Kapitel 5 beschränken, erlaubt die explizite Berechnung der benötigten Verteilungen. Als Anwendung des Grenzwertsatzes aus Kapitel 3.1 können nun intermediär subkritische Verzweigungsprozesse, bedingt auf Überleben, wie folgt simuliert werden: Zunächst wird die Umgebung zufällig bestimmt, und zwar als Irrfahrt, bedingt darauf ihr Minimum am Ende anzunehmen. Anschließend wird, der Geiger-Konstruktion folgend, ein Verzweigungsprozess in dieser Umgebung, bedingt auf Überleben, simuliert. Zum Abschluss wird in einem kurzen Ausblick auf aktuelle Forschung verwiesen. Im Anhang befinden sich einige technische Resultate.
Die vorliegende Dissertation analysiert Großinvestorhandelsstrategien in illiquiden Finanzmärkten. Ein Großinvestor beeinflusst die Preise der Wertpapiere, die er handelt, so dass der daraus resultierende Feedbackeffekt berücksichtigt werden muss. Der Preisprozess wird durch eine Familie von cadlag Semimartingalen modelliert, die in dem zusätzlichen Parameter stetig differenzierbar ist. Ziel ist es, eine möglichst allgemeine Strategiemenge zu bestimmen, für die eine Vermögensdynamik definiert werden kann. Es sind dies vorhersehbare Prozesse von wohldefinierter quadratischer Variation entlang Stoppzeiten. Sie erweisen sich als laglad. Die Vermögensdynamikzerlegung zeigt, dass bei stetigen adaptierten Strategien von endlicher Variation (zahme Strategien) die quadratischen Transaktionskostenterme verschwinden und der Gewinnprozess nur noch aus einem nichtlinearen stochastischen Integral besteht. Es wird gezeigt, unter welchen Bedingungen gewisse Approximationen vorhersehbarer laglad Strategien durch adaptierte stetige Strategien von endlicher Variation möglich sind. Im Fall, dass der Approximationsfehler für die Risikoeinstellung des Großinvestors erträglich ist, kann er seine Investmentziele durch Verwendung dieser zahmen Strategien, Liquiditätskosten vermeidend, erreichen. In diesem Fall ist der Gewinnprozess durch das nicht-lineare stochastische Integral gegeben.
The Benchmark Dose (BMD) approach, which was suggested firstly in 1984 by K. Crump [CRUMP (1984)], is a widely used instrument in risk assessment of substances in the environment and in food. In this context, the BMD approach determines a reference point (RfP) on the statistically estimated dose-response curve, for which the risk can be determined with adequate certainty and confidence. In the next step of risk characterization a threshold is calculated, based on this RfP and toxicological considerations. The BMD approach bases upon the fit of a dose-response model on the data. For this fit a stochastic distribution of the response endpoint is taken as a basis. Ultimately, the BMD reflects the dose for which a pre-specified increase in an adverse health effect (the benchmark response) can be expected. Until now, the BMD approach has been specified only for quantal and continuous endpoints. But in risk assessment of carcinogens especially so called time-to-event data are of high interest since they contain more information on the tumor development than quantal incidence data. The goal of this diploma thesis was to extend the BMD approach to such time-to-event data.
Dessins d'enfants (children's drawings) may be defined as hypermaps, i.e. as bipartite graphs embedded in compact Riemann surfaces. They are very important objects in order to describe the surface of the embedding as an algebraic curve. Knowing the combinatorial properties of the dessin may, in fact, help us determining defining equations or the field of definition of the surface. This task is easier if the automorphism group of the dessin is "large". In this thesis we consider a special type of dessins, so-called Wada dessins, for which the underlying graph illustrates the incidence structure of points and of hyperplanes of projective spaces. We determine under which conditions they have a large orientation-preserving automorphism group. We show that applying algebraic operations called "mock" Wilson operations to the underlying graph we may obtain new dessins. We study the automorphism group of the new dessins and we show that the dessins we started with are coverings of the new ones.
New conditions of solvability based on a general theorem on the calculation of the index at infinity for vector fields that have degenerate principal linear part as well as degenerate ... next order ... terms are obtained for the 2 Pi-periodic problem for the scalar equation x'' +n2x=g(|x|)+f(t,x)+b(t) with bounded g(u) and f(t,x) -> 0 as |x| -> 0. The result is also applied to the solvability of a two-point boundary value problem and to resonant problems for equations arising in control theory.
AMS subject classifications: 47Hll, 47H30.
Linear-implicit versions of strong Taylor numerical schemes for finite dimensional Itô stochastic differential equations (SDEs) are shown to have the same order as the original scheme. The combined truncation and global discretization error of an gamma strong linear-implicit Taylor scheme with time-step delta applied to the N dimensional Itô-Galerkin SDE for a class of parabolic stochastic partial differential equation (SPDE) with a strongly monotone linear operator with eigenvalues lambda 1 <= lambda 2 <= ... in its drift term is then estimated by K(lambda N -½ + 1 + delta gamma) where the constant K depends on the initial value, bounds on the other coefficients in the SPDE and the length of the time interval under consideration.
AMS subject classifications: 35R60, 60H15, 65M15, 65U05.
Martin Möller, Professor für Algebra und Geometrie an der Goethe-Universität, erhält in der dritten Ausschreibungsrunde des European Research Council (ERC) einen »Starting Independent Researcher Grant«. Mit dem 2007 erstmals ausgeschriebenen Programm der ERC-Grants will die Europäische Union (EU) europaweit kreative Wissenschaftler und zukunftsweisende Projekte fördern. Für den Bereich »Physical Sciences and Engineering « waren 1205 Bewerbungen aus der ganzen Welt eingegangen, 2873 für die Ausschreibung insgesamt. Alleiniges Kriterium bei der Begutachtung der Anträge ist wissenschaftliche Exzellenz. Mit den vom ERC bewilligten Mitteln in Höhe von einer Million Euro für die nächsten fünf Jahre will Möller seine Forschergruppe um vier Mitarbeiter erweitern.
We presented a proof for the classical stable limit laws under use of contraction method in combination with the Zolotarev metric. Furthermore, a stable limit law was proved for scaled sums of growing into sequences. This limit law was alternatively formulated for sequences of random variables defined by a simple degenerate recursion.
We present a new self-contained and rigorous proof of the smoothness of invariant fiber bundles for dynamic equations on measure chains or time scales. Here, an invariant fiber bundle is the generalization of an invariant manifold to the nonautonomous case. Our main result generalizes the “Hadamard-Perron theorem” to the time-dependent, infinite-dimensional, noninvertible, and parameter-dependent case, where the linear part is not necessarily hyperbolic with variable growth rates. As a key feature, our proof works without using complicated technical tools.
Dynamical systems driven by Gaussian noises have been considered extensively in modeling, simulation, and theory. However, complex systems in engineering and science are often subject to non-Gaussian fluctuations or uncertainties. A coupled dynamical system under a class of Lévy noises is considered. After discussing cocycle property, stationary orbits, and random attractors, a synchronization phenomenon is shown to occur, when the drift terms of the coupled system satisfy certain dissipativity and integrability conditions. The synchronization result implies that coupled dynamical systems share a dynamical feature in some asymptotic sense.
This work connects Markov chain imbedding technique (MCIT) introduced by M.V. Koutras and J.C. Fu with distributions concerning the cycle structure of permutations. As a final result program code is given that uses MCIT to deliver proper numerical values for these. The discrete distributions of interest are the one of the cycle structure, the one of the number of cycles, the one of the rth longest and shortest cycle and finally the length of a random chosen cycle. These are analyzed for equiprobable permutations as well as for biased ones. Analytical solutions and limit distributions are also considered to put the results on a safe, theoretical base.
Condensing phenomena for systems biology, ecology and sociology present in real life different complex behaviors. Based on local interaction between agents, we present another result of the Energy-based model presented by [20]. We involve an additional condition providing the total condensing (also called consensus) of a discrete positive measure. Key words: Condensing; consensus; random move; self-organizing groups; collective intelligence; stochastic modeling. AMS Subject Classifications: 81T80; 93A30; 37M05; 68U20
Tropical geometry is the geometry of the tropical semiring \[\mathbb{T}:=(\mathbb{R}\cup\{\infty\},\min,+).\] Classical algebraic structures correspond to tropical structures. If $I\lhd K[x_1,\ldots,x_n]$ is an ideal in a polynomial ring over a field $K$ with valuation $v$, then the classical algebraic variety correspond to the tropical variety $T(I)$. It is the set of all points $w$, such that the minimum $\min\{v(c_\alpha)+w\cdot\alpha\}$ is achieved twice for all $f=\sum_\alpha c_\alpha x^\alpha\in I$. So tropical geometry relates algebraic geometric problems with discrete geometric problems. In this thesis we obtain a tropical version of the Eisenbud-Evans Theorem which states that every algebraic variety in $\mathbb{R}^n$ is the intersection of $n$ hypersurfaces. We find out that in the tropical setting every tropical variety $T(I)$ can be written as an intersection of only $(n+1)$ tropical hypersurfaces. So we get a finite generating system of $I$ such that the corresponding tropical hypersurfaces intersect to the tropical variety, a so-called tropical basis. Let $I \lhd K[x_1,\ldots,x_n]$ be a prime ideal generated by the polynomials $f_1, \ldots, f_r$. Then there exist $g_0,\ldots,g_{n} \in I$ such that \[ T(I) \ = \ \bigcap_{i=0}^{n}T(g_i)\] and thus $\mathcal{G} := \{f_1, \ldots, f_r, g_0, \ldots, g_{n}\}$ is a tropical basis for $I$ of cardinality $r+n+1$. Tropical bases are discussed by Bogart, Jensen, Speyer, Sturmfels and Thomas where it is shown that tropical bases of linear polynomials of a linear ideal have to be very large. We do not restrict the tropical basis to consist of linear polynomials and therefore we get a shorter tropical basis. But the degrees of our polynomials can be very large. The main ingredient to get a short tropical basis is the use of projections, in particular geometrically regular projections. Together with the fact that preimages of projections of tropical varieties are themselves tropical varieties of a certain elimination ideal we get the desired result. Let $I \lhd K[x_1, \ldots, x_n]$ be an $m$-dimensional prime ideal and $\pi : \mathbb{R}^n \to \mathbb{R}^{m+1}$ be a rational projection. Then $\pi^{-1}(\pi(T(I)))$ is a tropical variety, namely \[ \pi^{-1}(\pi(T(I))) \ = \ T(J \cap K[x_1, \ldots, x_n]) \,\] Here $J$ is an ideal in $K[x_1,\ldots,x_n,\lambda_1,\ldots,\lambda_{n-m-1}]$ derived from the ideal $I$. We show that this elimination ideal is a principal ideal which yields a polynomial in our tropical basis. The advantage of our method is that we find our polynomials by projections and therefore we can use the results of Gelfand, Kapranov and Zelevinsky , of Esterov and Khovanskii , and of Sturmfels, Tevelev and Yu. With mixed fiber polytopes we get the structure and combinatorics of the image of a tropical variety and therefore the structure of the polynomials in our tropical basis. Let $I=\lhd K[x_1,\ldots,x_n]$ an $m$-dimensional ideal, generated by generic polynomials $f_1,\ldots, f_{n-m}$, $\pi:\mathbb{R}^n\to\mathbb{R}^{m+1}$ a projection and $\psi$ a projection presented by a matrix with a rowspace equal to the kernel of $\pi$. Then up to affine isomorphisms, the cells of the dual subdivision of $\pi^{-1} \pi T(I)$ are of the form \[ \sum_{i=1}^p \Sigma_{\psi} (C_{i1}^{\vee}, \ldots, C_{i{k}}^{\vee}) \] for some $p\in\mathbb{N}$ and faces $F_1, \ldots, F_p$ of $T(f_1)\cap\ldots\cap T(f_k)$ and the dual cell of $F_i\subseteq U = T(f_1)\cup\ldots\cup T(f_k)$ is given by $F_i^\vee=C_{i1}^{\vee}+ \ldots+ C_{ik}^{\vee}$ with faces $C_{i1}, \ldots, C_{i k}$ of $T(f_1), \ldots, T(f_{k})$. In case that we project a tropical curve we want to find the number of $(n-1)$-cells of the above form with $p>1$, i.e. the cells which are dual to vertices of $\pi(T(I))$ which are the intersection of the images of two non-adjacent $1$-cells of $T(I)$. Vertices of this type are called selfintersection points. We show that there exist a tropcal line $L_n\subset\mathbb{R}^n$ and a projection $\pi:\mathbb{R}^n\to\mathbb{R}^2$, such that $L_n$ has $\sum_{i=1}^{n-2}i$ selfintersection points. Furthermore we find tropical curves $\mathcal{C}\subset\mathbb{R}^n$, which are transversal intersections of $n-1$ tropical hypersurfaces of degrees $d_1,\ldots,d_{n-1}$ and a projection $\pi:\mathbb{R}^n\to\mathbb{R}^2$, such that $\mathcal{C}$ has at least $(d_1\cdot\ldots\cdot d_{n-1})^2\cdot \sum_{i=1}^{n-2}i) $ selfintersection points. A caterpillar is a certain simple type of a tropical line and for this type we show that it can have at most $\sum_{i=1}^{n-2}i$ selfintersection points.