Refine
Year of publication
Document Type
- Doctoral Thesis (5744) (remove)
Language
- German (3646)
- English (2069)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5744)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1532)
- Biowissenschaften (836)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (313)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Das Thema dieser Arbeit war die Untersuchung der natürlichen Variationen von den zwei primordialen Uranisotopen (238U und 235U) mit einem Schwerpunkt auf Proben, die (1) die kontinentale Kruste und ihre Verwitterungsprodukte (d.h. Granite, Shales und Flusswasser) repräsentieren, (2) Produkte der hydrothermalen Alteration vom mittelozeanischen Rücken widerspiegeln (d.h. alterierte Basalte, Karbonatgänge und hydrothermales Wasser) und (3) aus abgegrenzten euxinischen Becken (d.h. Proben aus der Wassersäule und den dazugehörigen Sedimenten) stammen. Das allgemeine Ziel war das Verständnis, unter welchen Bedingungen und Mechanismen eine Fraktionierung der zwei häufigsten Uranisotope (238U und 235U) in der Natur erfolgt, zu verbessern.
Die untersuchten Haupt- und Nebenflüsse unterscheiden sich sowohl in Ihrer Urankonzentration (c(U)) als auch in Ihrer Uranisotopenzusammensetzung (δ238U), wobei die Nebenflüsse eine geringere Urankonzentration (0.87 nmol/kg bis 3.08 nmol/kg) und eine schwerere Uranisotopenzusammensetzung aufweisen (-0.29 ‰ bis +0.01 ‰ im δ238U) im Vergleich zu den Hauptflüssen (c(U) = 5.19 nmol/kg bis 11.69 nmol/kg und d238U = -0.31 ‰ bis +0.13 ‰) aufweisen. Die untersuchten Gesteinsproben fallen alle in einen recht schmalen Bereich von δ238U, zwischen -0.45 ‰ und -0.21 ‰, mit einem Durchschnittswert von -0.30 ‰ ± 0.04 ‰ (doppelte Standardabweichung). Deren Uranisotopenvariationen sind unabhängig von der Urankonzentration (11.8 µg/g bis 1.3 µg/g), dem Alter (3.80 Ga bis 328 Ma), der Probenlokalität und Grad der Differenzierung. Basierend auf den Ergebnissen der Hauptflüsse, die die Uranhauptquelle für den Ozean darstellen, schlagen wir für zukünftige Berechnungen in der Massenbilanz des Urans einen neuen Wert als beste Abschätzung für die Quelle des Urans im Ozean vor, δ238U = -0.23 ‰.
Die Produkte der hydrothermalen Alteration, alterierte Basalte und Kalziumkarbonatgänge, zeigten etwas stärkere Isotopenvariationen (δ238U zwischen -0.63 ‰ und +0.27 ‰) als erwartet und die hydrothermalen Fluide wiesen eine etwas leichtere Uranisotopenzusammensetzung als Meerwasser ((-0.43 ± 0.25) ‰ vs. (-0.37 ± 0.03) ‰) auf. Diese Ergebnisse sind in Übereinstimmung mit einem Modell, dass annimmt, dass die beobachtete Isotopenfraktionierung hauptsächlich ein Ergebnis von Redoxprozessen ist, z.B. die partielle Reduktion von löslichem UVI aus dem Meerwasser während der hydrothermalen Alteration, was zu einer Anreicherung der schweren Uranisotope in der reduzierten Uranspezies (UIV) führt und 2) das bevorzugte Entfernen von UIV aus den hydrothermalen Fluid und der Einbau in die alterierte ozeanische Kruste. Durch diesen Prozess wird das hydrothermale Fluid an schweren Uranisotopen verarmt und somit würden auch die alterierten Basalte und Karbonate ein niedriges δ238U aufweisen, wenn sie mit dem isotopisch leichten hydrothermalen Fluid in Kontakt gekommen sind.
Die Untersuchung von Wasser- und Sedimentproben aus der Ostsee und dem anoxischen Kyllaren Fjord (Norwegen) auf deren Uran- und Mo-Isotopenzusammensetzung zeigte, dass die Uranisotopenzusammensetzung der Sedimente abhängt von (1) dem Ausmaß des Uranaustrags aus der Wassersäule (in einer ähnlichen Art und Weise wie bei den Molybdänisotopen) und (2) der Sedimentationsrate, d.h. der Fraktion von authigenem- relativ zum dedritischen Uran in den Sedimenten. Aufgrund der hohen Sedimentationsrate zeigen die Sedimente aus dem Kyllaren Fjord nur eine moderate authigene Urananreicherung und eine leichtere Uranisotopenzusammensetzung als Sedimente aus dem Schwarzen Meer. In den anoxischen Becken der Ostsee erfolgt dagegen eine starke Mo- und schwache U-Isotopenfraktionierung zwischen Wasser und Sediment. Durch die regelmäßigen auftretenden Spülereignisse mit sauerstoffreichem Wasser wurden vermutlich die ursprünglichen anoxischen Mo- und U-Isotopensignaturen der Sedimente verändert. Demzufolge müssen die Sedimente durchgehend anoxischen Bedingungen ausgesetzt sein, um eine Mo- und U-Isotopensignatur von den Redoxbedingungen während der Ablagerungen zu speichern.
Der Vergleich zwischen Molybdän- und Uranisotopen in der Ostsee und dem anoxischen Kyllaren Fjord zeigte, dass sich Uran- und Molybdänisotope in stark euxinischen Wassersäulen (c(H2S) > 11 µmol/L) entgegengesetzt verhalten. Dementsprechend ergänzen sich die beiden Isotopensysteme und können genutzt werden, um die Ablagerungsbedingungen in abgeschlossenen Becken und die Redoxentwicklung des Paläoozeans zu untersuchen.
Driven by rapid technological advancements, the amount of data that is created, captured, communicated, and stored worldwide has grown exponentially over the past decades. Along with this development it has become critical for many disciplines of science and business to being able to gather and analyze large amounts of data. The sheer volume of the data often exceeds the capabilities of classical storage systems, with the result that current large-scale storage systems are highly distributed and are comprised of a high number of individual storage components. As with any other electronic device, the reliability of storage hardware is governed by certain probability distributions, which in turn are influenced by the physical processes utilized to store the information. The traditional way to deal with the inherent unreliability of combined storage systems is to replicate the data several times. Another popular approach to achieve failure tolerance is to calculate the block-wise parity in one or more dimensions. With better understanding of the different failure modes of storage components, it has become evident that sophisticated high-level error detection and correction techniques are indispensable for the ever-growing distributed systems. The utilization of powerful cyclic error-correcting codes, however, comes with a high computational penalty, since the required operations over finite fields do not map very well onto current commodity processors. This thesis introduces a versatile coding scheme with fully adjustable fault-tolerance that is tailored specifically to modern processor architectures. To reduce stress on the memory subsystem the conventional table-based algorithm for multiplication over finite fields has been replaced with a polynomial version. This arithmetically intense algorithm is better suited to the wide SIMD units of the currently available general purpose processors, but also displays significant benefits when used with modern many-core accelerator devices (for instance the popular general purpose graphics processing units). A CPU implementation using SSE and a GPU version using CUDA are presented. The performance of the multiplication depends on the distribution of the polynomial coefficients in the finite field elements. This property has been used to create suitable matrices that generate a linear systematic erasure-correcting code which shows a significantly increased multiplication performance for the relevant matrix elements. Several approaches to obtain the optimized generator matrices are elaborated and their implications are discussed. A Monte-Carlo-based construction method allows it to influence the specific shape of the generator matrices and thus to adapt them to special storage and archiving workloads. Extensive benchmarks on CPU and GPU demonstrate the superior performance and the future application scenarios of this novel erasure-resilient coding scheme.
Diese Dissertation stellt die systematische Einbeziehung von Eichkorrekturen in die Theorie der thermischen Leptogenese vor, welche eine Erklärung für die Frage nach dem Ursprung der Materie in unserem Universum bereitstellt.
Geht man vom weithin anerkannten Urknallmodell aus, so müsste hierbei zu gleichen Teilen Materie sowie Antimaterie entstanden sein. Aufgrund von Annihilationsprozessen sollte demnach die gesamte Materie zerstrahlt sein und ein leeres Universum zurückbleiben. Da dies aber nicht der Fall ist, stellt sich die Frage, wie das Ungleichgewicht zwischen Materie und Antimaterie entstehen konnte. Der Wert der Asymmetrie lässt sich mit Hilfe von Experimenten sehr genau bestimmen. Für eine systematische theoretische Beschreibung dieser Problematik stellte A. Sacharow drei Bedingungen auf: 1. die Verletzung der Baryonenzahl, 2. die Verletzung der Invarianz von Ladungskonjugation C sowie der Zusammensetzung von Ladungskonjugation und Parität CP sowie 3. eine Abweichung vom thermischen Gleichgewicht.
Da das Urknallmodell und das Standardmodell der Teilchenphysik nicht in der Lage sind, diese Asymmetrie zu beschreiben, beschäftigt sich die vorliegende Dissertation mit der Theorie der thermischen Leptogenese, welche statt von einer ursprünglichen Baryonenasymmetrie von einer Leptonenasymmetrie ausgeht. Zu einem späteren Zeitpunkt wird diese dann mittels Sphaleron-Prozesse, welche die Baryonenzahl verletzen, in eine Baryonenasymmetrie übertragen. Hierzu werden neue Teilchen zum Standardmodell hinzugefügt: schwere Majorana-Neutrinos. Diese zerfallen im thermischen Nichtgleichgewicht CP-verletzend in die bekannten Standardmodell-Leptonen und Higgs-Teilchen.
In dieser Arbeit wird eine hierarchische Anordnung der drei schweren Neutrinomassen betrachtet. Dies hat zur Folge, dass zwei der drei Majorana-Neutrinos ausintegriert werden können und eine effektive Theorie aufgestellt werden kann. Dieses Modell wird auch vanilla leptogenesis genannt und im Folgenden verwendet.
Die Dissertation ist wie folgt gegliedert. Die einleitenden Betrachtungen sind Gegenstand der Kapitel 1 und 2. Dort werden weiterhin andere Modelle zur Lösung des Problems der Baryonenasymmetrie kurz vorgestellt. Die thermische Leptogenese wird eingeführt und der See-saw-Mechanismus sowie die CP-Asymmetrie genauer beschrieben. Am Ende des Kapitels wird der klassische Ansatz für Leptogenese über Boltzmann Gleichungen präsentiert.
In Kapitel 3 werden die Grundlagen für Quantenfeldtheorien im Nichtgleichgewicht eingeführt. Die wichtigsten Definitionen im Falle des thermischen Gleichgewichts werden gegeben, anschließend findet sich die Verallgemeinerung auf Nichtgleichgewichtszustände. Die Bewegungsgleichungen, die sogenannten Kadanoff-Baym-Gleichungen, werden im Folgenden sowohl für skalare Teilchen als auch für Fermionen gelöst.
Kapitel 4 stellt die Notwendigkeit der Einbeziehung von Eichkorrekturen im Kontext der thermischen Leptogenese vor. Durch die Definition einer Leptonenzahlmatrix lässt sich die Asymmetrie durch die Kadanoff-Baym Gleichung für Leptonen umschreiben. Da der Vergleich von Boltzmann und Kadanoff-Baym Gleichungen im letzten Teil dieses Kapitels Unterschiede im Zeitverhalten zeigt, werden im Kadanoff-Baym Ansatz thermische Standardmodell-Breiten des Higgsfeldes und der Leptonen per Hand eingeführt. Mit dieser naiven Erweiterung erhält man ein gleiches Verhalten für die Leptonenzahlmatrix, lokal in der Zeit wie die Lösung der Boltzmann Gleichung. Eine systematische Einführung von Standardmodellkorrekturen für thermische Leptogenese ist daher unumgänglich, weshalb im Rahmen der vorliegenden Dissertation von Grund auf Eichkorrekturen der Diagramme, die zur Asymmetrie führen, berücksichtigt werden.
Die vier für diese Arbeit wichtigen Skalenbereich bedingen zwei Resummationsschemata, Hard Thermal Loop (HTL) und Collinear Thermal Loop (CTL), welche in Kapitel 5 vorgestellt werden. Dies führt schließlich auf zwei Differenzialgleichungen für die Berechnung der thermischen Produktionsrate des Majorana-Neutrinos, welche in Kapitel 6 numerisch weiter ausgewertet werden.
In Kapitel 7 erfolgt zunächst eine naive Berechnung aller eichkorrigierter 3-Schleifen-Diagramme, die zu den beiden die Asymmetrie verursachenden Diagrammen gehören. Da eine einfache Berechnung der 3-Schleifen-Diagramme nicht ausreicht, wird an dieser Stelle ein neues, zylindrisches Diagramm eingeführt, welches alle wichtigen Beiträge, insbesondere die HTL- und CTL-resummierten, enthält. Am Ende des Kapitels findet sich der erste geschlossene Ausdruck für die eichkorrigierte Leptonenzahlmatrix in führender Ordnung in allen Kopplungen.
Abschließend gibt es eine kurze Zusammenfassung und einen Ausblick in Kapitel 8. In dieser Dissertation findet sich zum ersten Mal ein systematischer Zugang zur Berücksichtigung aller Eichwechselwirkungen in der Theorie der thermischen Leptogenese. Ein geschlossener Ausdruck für die eichkorrigierte Leptonenasymmetrie konnte vorgestellt werden.
In our daily life, we carry out lots of tasks like typing, playing tennis, and playing the piano, without even noticing there is sequence learning involved. No matter how simple or complex they are, these tasks require the sequential planning and execution of a series of movements. As an ability of primary importance in one’s life, and an ability that everyone manages to learn, action-sequence learning has been studied by researchers from different fields: psychologists, neurophysiologists as well as roboticists. In the concept of sequence learning, perceptual learning and motor learning, implicit and explicit learning have been studied and discussed independently.
We are interested in infancy research, because infants, with underdeveloped brain functions and with limited motor ability, have little experience with the world and not yet built internal models as presumption of how to interpret the world. A series of infant experiments in the 1980s provided evidence that infants can rapidly develop anticipatory eye movements for visual events. Even when infants have no control of those spatial-temporal patterns, they can respond actually prior to the onset of the visual event, referred as "Anticipation".
In this work, we applied a gaze-contingent paradigm using real-time eye tracking to put 6- and 8-month-old infants in direct control of their visual surroundings. This paradigm allows the infant to change an image on a screen by looking at a peripheral red disc, which functions as a switch. We found that infants quickly learn to perform eye movements to trigger the appearance of new stimuli and that they anticipate the consequences of their actions in an early stage of the experiment.
Attention-shift from learning one stimulus to the next novel stimulus is important in sequence learning. In the test phase of infant visual habituation with two objects, we propose a new theory of explaining the familiarity-to-novelty shift. In our opinion an infant’s interest in a stimulus is related to its learning progress, the improvement of performance. As a consequence, infants prefer the stimulus which their current learning progress is maximal for, naturally giving rise to a familiarity-to-novelty shift in certain situations. Our network model predicts that the familiarity-to-novelty-shift only emerges for complex stimuli that produce bell-shaped learning curves after brief familiarization, but does not emerge for simple stimuli that produce exponentially decreasing learning curves or for long familiarization time, which is consistent with experimental results. This research suggests the infant's interest in a stimulus may be related to its current learning progress. This can give rise to a dynamic familiarity-to-novelty shift depending on both the infant's learning efficiency and the task complexity.
We know that for both infants and adults, the performance on certain motor-sequence tasks can be improved through practice. However, adults usually have to perform complex tasks in complicated environments; for example, learning multiple tasks is unavoidable in our daily life. In existing research, learning multiple tasks showed puzzling and seemingly contradictory results. On the one hand, a wide variety of proactive and retroactive interference effects have been observed when multiple tasks have to be learned. On the other hand, some studies have reported facilitation and transfer of learning between different tasks.
In order to find out the interaction between multiple-task learning, and to find an optimal training schedule, we use a recurrent neural network to model a series of experiments on movement sequence learning. The network model learns to carry out the correct movement sequences through training and reproduces differences between training schedules such as blocked training vs. random training in psychophysics experiments. The network model also shows striking similarity to human performance, and makes prediction for tasks similarity and different training schedules.
In conclusion, the thesis presents learning sequences of actions in infants and recurrent neural networks. We carried out a gaze-contingent experiment to study infants’ rapid anticipation of their own action outcomes, and we also constructed two recurrent neural network models, with one model explaining infant attention shift in visual habituation, and the other model directing to task similarity and training schedule in motor sequence control in adults.
Im Rahmen einer prospektiven Kohortenstudie wurde in der vorliegenden Arbeit die Epidemiologie und Ätiologie von Fieber während chemotherapiebedingter Neutropenie bei Patienten mit hämatologischen Neoplasien untersucht. Das diagnostische und therapeutische Vorgehen wurde beschrieben und die Übereinstimmung mit den Vorgaben einer hausinternen Leitlinie wurde evaluiert und der Verbrauch an antimikrobiellen Substanzen dokumentiert. Febrile Episoden konnten in 74% der Neutropenieepisoden dokumentiert werden; in 51% der Neutropenieepisoden kam es zu persistierendem Fieber ≥ 3 Tage. Eine dem Fieber zugrunde liegende Infektion wurde in 55% der Chemotherapiezyklen (Neutropeniedauer Median 16 Tage) mittels klinischer, apparativer und mikrobiologischer Diagnostik gefunden. Die häufigsten infektiösen Komplikationen waren Enteritiden mit Nachweis von C. difficile (11%), Enteritiden ohne Nachweis von C. difficile (29%), Pneumonien mit pilztypischen Infiltraten (12%) und Pneumonien mit unspezifischen Infiltraten (11%), sowie mikrobiologisch bestätigte Septikämien (18%). Im Vergleich zu Angaben in der Literatur wurde FUO in der vorliegenden Untersuchung häufiger diagnostiziert (11,8 Tage pro 1000 Patiententage vs. 8,2 Tage pro 1000 Patiententage). Die Gesamtmortalität des Kollektivs lag bei 7%. Die häufigste Todesursache war der septische Schock (8 von 5 Patienten; 63%), welcher sich auf dem Boden einer gramnegativen Septikämie mit multiresistenten Keimen entwickelt hatte (3 von 5 Septikämien; 60%). Die Mortalitätsrate war ähnlich hoch wie im Literaturvergleich bei Studien mit akuten myeloischen Leukämien. Prognoserelevante Faktoren, welche im Rahmen der vorliegenden Studie evaluiert wurden, sind durch schwer therapierbare Grunderkrankungen hervorgerufene prolongierte Neutropeniezeiten, sowie infektiöse Komplikationen, vor allem bei Nachweis multiresistenter Erreger.
Die Compliance bezüglich des diagnostischen und therapeutischen Vorgehens bei persistierendem Fieber betrug in der vorliegenden Arbeit zwischen 47% und 82%. Die Compliance mit den in der Leitlinie vorgeschlagenen antimikrobiellen prophylaktischen und initialen empirischen Therapien lag zwischen 83% und 85%. Der Gesamtverbrauch an antibiotischen und antimykotischen Substanzen war in der vorliegenden Studie höher als im Literaturvergleich (1647 DDD vs. 1140 DDD und 650 DDD vs. 430 DDD). Dabei fällt insbesondere der hohe Verbrauch an Reservemedikamenten gegen grampositive Bakterien auf. Allerdings fehlen aktuelle Vergleichsdaten vergleichbarer Patientenkollektive.
Bezüglich der Optimierung der diagnostischen Maßnahmen ist vor allem die Erhöhung der Sensitivität der Bronchoalveolären Lavage bei Pilzinfektionen, rechtzeitig und regelmäßig durchgeführte Surveillanceabstriche bei febriler Neutropenie, sowie die Diskussion der diagnostischen Ergebnisse und des weiteren therapeutischen Vorgehens mit infektiologischen Experten zu fordern. Patienten mit persistierendem Fieber - vor allem bei positivem Blutkulturnachweis - sollten, aufgrund des positiven prädiktiven Wertes erregerpositiver Blutkulturen für die Notwendigkeit einer intensivmedizinischen Betreuung und einer erhöhten Mortalität, Anlass sein, diagnostische und therapeutische Maßnahmen zu verbessern. Ziel ist es, durch verstärkten Einsatz diagnostischer Maßnahmen und Diskussion mikrobiologischer Befunde im Einzelfall, Reservesubstanzen seltener einzusetzen, gegebenenfalls Breitspektrum-Antibiotika oder ihre Kombinationen zu deeskalieren und somit die Kolonisation mit resistenten Erregern positiv zu beeinflussen, sowie das Ansprechen auf antimikrobielle Therapien zu optimieren.
Die Teilnahme an multizentrischen Surveillancestudien zur Inzidenzerfassung wichtiger, eindeutig definierter neutropener nosokomialer Infektionen wie radiologisch detektierter Pneumonien, mikrobiologisch bestätigter Septikämien und C. difficilepositiver Enteritiden, sowie zur Generierung von Antiinfektivaverbrauchszahlen, könnte helfen, die Beratung und Entscheidungsfindung am Krankenbett zu unterstützen. Auch könnten in diesem Rahmen Zahlen generiert werden, welche bisher zum Vergleich fehlten.
Die vorliegende Arbeit versteht sich im Rahmen der Erfassung von Ätiologie, Diagnostik und antimikrobieller Therapien bei febriler Neutropenie als Teil eines solchen Surveillanceprogrammes und hat somit eine Grundlagen für zukünftige Datenerhebungen geliefert.
Die Dissertation stellt das Machtgeflecht in der Islamischen Stadt Marawi City (Mindanao, Philippinen) dar, in die die dortigen Gender-Debatten involviert sind. In einer Umgebung, die als Konsequenz des Mindanao Konfliktes als “no war, no peace”-Umgebung definiert werden kann, gibt es drei Hauptdarsteller: die nationale Regierung des mehrheitlich christlichen Staates der Philippinen (GRP), die Autonome Regierung im Muslimischen Mindanao (ARMM), zu der auch Marawi City zählt, und die islamische Rebellengruppe Moro Islamic Liberation Front (MILF), die einen islamischen (unter-)Staat fordert. Die GRP unterstützt Re-Islamisierungs- und Re-Traditionalisierungsbewegungen in der ARMM, um die Opposition zur MILF zu stärken. Die Konsequenz ist jedoch keine Kollaboration zwischen der GRP und der ARMM. Stattdessen nutzen Politiker ihre Privilegien aus, um ihren eigenen Absichten zu folgen. Sei dies, um politische Gegner auszuspielen oder das traditionelle Sultanatssystem zu fördern. Für Gender-Debatten gibt es in diesem Kontext der ungelösten nationalen Frage kaum Spielraum außerhalb einer Islamischen Narrative; dies bedeutet jedoch nicht, dass Gender nicht debattiert wird, sondern, dass die Debatten inner-Islamisch sind, hauptsächlich zwischen Repräsentanten des traditionell synkretistischen Islam und Vertretern Islamischer Revitalisierungsbewegungen. Speziell erstere erscheinen sehr einflussreich bezüglich Gender Strategien in der Region. Dies ist nur teilweise auf die Unterstützung der nationalen Regierung zurückzuführen, sondern ist vor allem eine Frage von Identität. Diese wiederum wird nicht vorranging über Religion, sondern nach ethnischen Maßstäben und im Speziellen im Rahmen von Clanstrukturen definiert.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
Paging is one of the most prominent problems in the field of online algorithms. We have to serve a sequence of page requests using a cache that can hold up to k pages. If the currently requested page is in cache we have a cache hit, otherwise we say that a cache miss occurs, and the requested page needs to be loaded into the cache. The goal is to minimize the number of cache misses by providing a good page-replacement strategy. This problem is part of memory-management when data is stored in a two-level memory hierarchy, more precisely a small and fast memory (cache) and a slow but large memory (disk). The most important application area is the virtual memory management of operating systems. Accessed pages are either already in the RAM or need to be loaded from the hard disk into the RAM using expensive I/O. The time needed to access the RAM is insignificant compared to an I/O operation which takes several milliseconds.
The traditional evaluation framework for online algorithms is competitive analysis where the online algorithm is compared to the optimal offline solution. A shortcoming of competitive analysis consists of its too pessimistic worst-case guarantees. For example LRU has a theoretical competitive ratio of k but in practice this ratio rarely exceeds the value 4.
Reducing the gap between theory and practice has been a hot research issue during the last years. More recent evaluation models have been used to prove that LRU is an optimal online algorithm or part of a class of optimal algorithms respectively, which was motivated by the assumption that LRU is one of the best algorithms in practice. Most of the newer models make LRU-friendly assumptions regarding the input, thus not leaving much room for new algorithms.
Only few works in the field of online paging have introduced new algorithms which can compete with LRU as regards the small number of cache misses.
In the first part of this thesis we study strongly competitive randomized paging algorithms, i.e. algorithms with optimal competitive guarantees. Although the tight bound for the competitive ratio has been known for decades, current algorithms matching this bound are complex and have high running times and memory requirements. We propose the algorithm OnlineMin which processes a page request in O(log k/log log k) time in the worst case. The best previously known solution requires O(k^2) time.
Usually the memory requirement of a paging algorithm is measured by the maximum number of pages that the algorithm keeps track of. Any algorithm stores information about the k pages in the cache. In addition it can also store information about pages not in cache, denoted bookmarks. We answer the open question of Bein et al. '07 whether strongly competitive randomized paging algorithms using only o(k) bookmarks exist or not. To do so we modify the Partition algorithm of McGeoch and Sleator '85 which has an unbounded bookmark complexity, and obtain Partition2 which uses O(k/log k) bookmarks.
In the second part we extract ideas from theoretical analysis of randomized paging algorithms in order to design deterministic algorithms that perform well in practice. We refine competitive analysis by introducing the attack rate
parameter r, which ranges between 1 and k. We show that r is a tight bound on the competitive ratio of deterministic algorithms.
We give empirical evidence that r is usually much smaller than k and thus r-competitive algorithms have a reasonable performance on real-world traces. By introducing the r-competitive priority-based algorithm class OnOPT we obtain a collection of promising algorithms to beat the LRU-standard. We single out the new algorithm RDM and show that it outperforms LRU and some of its variants on a wide range of real-world traces.
Since RDM is more complex than LRU one may think at first sight that the gain in terms of lowering the number of cache misses is ruined by high runtime for processing pages. We engineer a fast implementation of RDM, and compare it
to LRU and the very fast FIFO algorithm in an overall evaluation scheme, where we measure the runtime of the algorithms and add penalties for each cache miss.
Experimental results show that for realistic penalties RDM still outperforms these two algorithms even if we grant the competitors an idealistic runtime of 0.
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
In this thesis, the asymptotic behaviour of Pólya urn models is analyzed, using an approach based on the contraction method. For this, a combinatorial discrete time embedding of the evolution of the composition of the urn into random rooted trees is used. The recursive structure of the trees is used to study the asymptotic behavior using ideas from the contraction method.
The approach is applied to a couple of concrete Pólya urns that lead to limit laws with normal distributions, with non-normal limit distributions, or with asymptotic periodic distributional behavior.
Finally, an approach more in the spirit of earlier applications of the contraction method is discussed for one of the examples. A general transfer theorem of the contraction method is extended to cover this example, leading to conditions on the coefficients of the recursion that are not only weaker but also in general easier to check.