Mathematik
Refine
Year of publication
Document Type
- diplomthesis (33)
- Doctoral Thesis (29)
- Article (28)
- Book (22)
- Conference Proceeding (9)
- Bachelor Thesis (7)
- Diploma Thesis (7)
- Contribution to a Periodical (6)
- Master's Thesis (6)
- Report (6)
Language
- German (156) (remove)
Has Fulltext
- yes (156)
Is part of the Bibliography
- no (156)
Keywords
- Doku Mittelstufe (4)
- Doku Oberstufe (4)
- Stochastik (4)
- Finanzmathematik (3)
- Mathematik (3)
- Statistik (3)
- Arithmetische Gruppe (2)
- Biographie (2)
- Frankfurt <Main> / Universität (2)
- Martingal (2)
Institute
- Mathematik (156)
- Präsidium (20)
- Psychologie (6)
- Geschichtswissenschaften (5)
- Informatik (5)
- Physik (5)
- Sportwissenschaften (5)
- Biochemie und Chemie (3)
- Biowissenschaften (3)
- Geographie (3)
Nur eine Institution, die sich verändern kann, kann auch bestehen – das gilt mit Sicherheit im besonderen Maße für Bildungseinrichtungen. Veränderungen können jedoch in unterschiedlichem Gewand daherkommen. Manche geschehen unerwartet und verursachen dadurch vielleicht Probleme, andere hingegen bahnen sich so langsam an, dass ihre Effekte geradezu überraschend wirken können. Die in ihrer Geschwindigkeit unerwartete Einführung des Praxissemesters in der ersten, universitären Phase der Lehrerausbildung in Hessen ist eine solche problematische Veränderung für die Hessische Schülerakademie (Oberstufe), weil sie deren bisher gültige Integration in die schulpraktischen Studienanteile der studentischen BetreuerInnen nicht mehr vorsieht – ein Umstand, der Akademieleitung und Kuratorium ebenso wie unsere Kooperationspartner an der Universität und im Kultusministerium jetzt schon seit über zwei Jahren intensiv beschäftigt.
Wer gern mitzählt, wird vielleicht festgestellt haben, dass im Sommer 2017 die zwanzigste Hessische Schülerakademie stattfand – dreizehn Oberstufenakademien waren es seit 2004, sieben für die Mittelstufe kamen seit 2011 hinzu. Zwanzig erfolgreiche Akademien bieten nicht nur Anlass zur Freude, sie bilden auch die solide Grundlage für einen selbstbewussten Blick in die Zukunft. Im nächsten Frühjahr lädt daher die Akademie Burg Fürsteneck gemeinsam mit dem Hessischen Kultusministerium zu einem interdisziplinären Symposium ein, bei dem die Hessische Schülerakademie und das Programm KulturSchule im Mittelpunkt stehen: Unter dem Titel "Kulturelle Bildung auf dem Weg" beschäftigen sich vom 2. bis zum 4. März 2018 Fachleute aus Wissenschaft und Praxis auf Burg Fürsteneck mit den "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen".
Das Akademiejahr 2018 hatte neben den beiden Schülerakademien für die Mittelstufe und die Oberstufe noch einen weiteren Höhepunkt: das Symposium "Kulturelle Bildung auf dem Weg" (vom 2. bis 4. März 2018, ausgerichtet von Burg Fürsteneck gemeinsam mit dem Schulentwicklungsprogramm KulturSchule des Hessischen Kultusministeriums und dem Weiterbildungsmaster Kulturelle Bildung an Schulen der Uni Marburg). Es wurde von unserem Schirmherrn, Kultusminister Prof. Dr. R. Alexander Lorz, eröffnet und hatte unter anderem das Ziel, in der Begegnung von Bildungsexpert*innen und -praktiker*innen eine Fachdebatte über "Qualitätsbedingungen in der Kulturellen Bildung am Beispiel der Schülerakademien und der Kulturschulen in Hessen" anzustoßen.
Kaum ein Name ist so eng mit dem "Projekt HSAKA" verbunden wie der von Wolf Aßmus: Seit der ersten Hessischen Schülerakademie für die Oberstufe im Jahre 2004 ist er als Leiter des Physik-Kurses dabei; die Gründung der Mittelstufenakademie 2011 wurde von ihm tatkräftig unterstützt und gefördert; einen Sitz im Kuratorium hat er ebenso übernommen wie das Amt des Ersten Vorsitzenden des Trägervereins von Burg Fürsteneck – der inzwischen pensionierte Professor für Festkörperphysik verkörpert geradezu die Idee vom "Un-Ruhestand". Wer mag es ihm da verübeln, wenn Wolf beschließt, im nächsten Sommer mal mehr Zeit mit seinen Enkeln zu verbringen, statt auf die Burg zu fahren? Weil es daher 2020 zum ersten Mal eine Oberstufenakademie ohne Wolf und ohne Physik-Kurs geben wird (stattdessen Philosophie und Informatik), haben wir auf der vergangenen Akademie die Gelegenheit genutzt, Wolf für 15 Jahre Schülerakademie zu danken. Genauer gesagt: für 15 Jahre, 16 Fachkurse in Physik (15 auf der Oberstufenakademie und einer bei der Mittelstufe), 15 kursübergreifende Naturkunde-Angebote, für die Betreuung Dutzender Studierender und weit über 200 Schüler*innen, für unzählige gemeinsame Aha-Erlebnisse und humorvolle Geschichten, für unermüdliches Engagement und geduldigen Beistand – und nicht zuletzt für viele, viele Liter Speiseeis. Unsere Dankbarkeit wollen wir hier mit allen Leser*innen dieser Dokumentation teilen.
Als wir im Herbst 2015 auf den Homepages von BURG FÜRSTENECK und der Schülerakademie unsere Ausschreibung für die Akademie 2016 veröffentlichten, ahnten wir noch nicht, dass wir uns weitere Werbung mit dem jährlichen Flyer, den wir zum Jahreswechsel an die hessischen Gymnasien und Gesamtschulen mit gymnasialen Zweig versenden, hätten (fast) sparen können. Zu unserer Überraschung und großer Freude zählten wir bereits im Februar 2016 "58" Anmeldungen von Schülerinnen und Schülern. Die Werbung hat uns im Anschluss über 20 weitere Bewerbungen beschert und in die unangenehme Situation gebracht, (zu) vielen Schülerinnen und Schülern absagen bzw. sie auf das nächste Jahr vertrösten zu müssen.
Das Zusammentreffen zu Beginn der Sommerferien von 60 wissbegierigen und experimentierfreudigen Schülerinnen und Schülern mit einem ebensolchen Team aus Hochschullehrenden und Kulturschaffenden, versprach wie immer eine intensive und aufregende Zeit zu werden. Diese positive Erwartung wurde auch voll erfüllt und gipfelte am Gästenachmittag mit Eltern, Verwandten, Freunden und interessierten Besuchern in einen feierlich-fröhlichen Abschluss mit spannenden und auch überraschenden Werkschauen der Kurse. Ein besonderes Highlight war die großformatige Gestaltung eines Modells der BURG FÜRSTENECK als interdisziplinäres Ergebnis des Hauptkurses Mathematik und des Wahlkurses Modellbau.
Die Erfahrung, "…dass alles auch ganz anders sein könnte" ist die wohl wichtigste Erfahrung in Bildungsprozessen. Die Entdeckung von Möglichkeiten, Perspektivwechseln und transformatorischen Selbst-Bildungsprozessen ist zentral für eine gelungene kulturelle Bildungssituation. (Birgit Mandel, 2005).
Die Hessischen Schülerakademien zur Förderung besonders engagierter und begabter junger Menschen wurden bewusst als ein Unterfangen des Forschenden Lernens gegründet und fühlen sich diesem Leitgedanken im Kontext kultureller Bildung verpflichtet. Dieser Satz klingt zunächst einmal gut und zeitgemäß. Doch was steckt genau dahinter?
Wir konnten unseren eigenen Weg gehen, jeder von uns hatte am Ende ein anderes Ergebnis und es war keines falsch. Das macht für mich die Qualität beim Lernen aus, dass mir genug Platz für meine Gedanken gegeben wird und ich ernst genommen werde. […] Dieses Gefühl ist bis heute nicht verloren gegangen und der Gedanke, wie es sein könnte, hilft mir, aus mir raus zukommen und andere zu motivieren, das ebenfalls zu tun, um auch um mich herum anregende Gespräche zu führen, die an die während der Akademie geführten heranreichen. (Feedback einer Teilnehmerin der HSAKA-M 2018)
Bildung durch Wissenschaft im Sinne des Forschenden Lernens ist ein zentrales Thema schulischer Bildung und findet beispielsweise im Konzept Kultur.Forscher! eine didaktische, schulische Umsetzung und wird vom Wissenschaftsrat als Leitgedanke ebenfalls für Universitäten mit dem Ziel empfohlen, Studium und Lehre deutlicher an der Forschung auszurichten.
[Nachruf] Wolfgang Schwarz
(2013)
Gleichungen mit mehreren Unbekannten zu lösen, üben Schüler schon in der Mittelstufe. Für die einen ist es eine spannende mathematische Knobelei, für die anderen eher Quälerei. Doch den wenigsten ist bewusst, wie viele Leben dadurch jeden Tag gerettet werden. Die moderne medizinische Bildgebung beruht darauf, sehr viele Gleichungen nach sehr vielen Unbekannten aufzulösen.
Im Rahmen dieser Arbeit wird der aktuelle Stand auf dem Gebiet des Lokalen Lovász Lemmas (LLL) beschrieben und ein Überblick über die Arbeiten zu konstruktiven Beweisen und Anwendungen gegeben. Ausgehend von Jószef Becks Arbeit zu einer algorithmischen Herangehensweise, haben sich in den letzten Jahren im Umfeld von Moser und Tardos und ihren Arbeiten zu einem konstruktiven Beweis des LLL eine erneute starke Beschäftigung mit dem Thema und eine Fülle von Verbesserungen entwickelt.
In Kapitel 1 wird als Motivation eine kurze Einführung in die probabilistische Methode gegeben. Mit der First- und Second Moment Method werden zwei einfache Vorgehensweisen vorgestellt, die die Grundidee dieses Beweisprinzips klar werden lassen. Von Paul Erdős eröffnet, beschreibt es Wege, Existenzbeweise in nicht-stochastischen Teilgebieten der Mathematik mithilfe stochastischer Überlegungen zu führen. Das Lokale Lemma als eine solche Überlegung entstammt dieser Idee.
In Kapitel 2 werden verschiedene Formen des LLL vorgestellt und bewiesen, außerdem wird anhand einiger Anwendungsbeispiele die Vorgehensweise bei der Verwendung des LLL veranschaulicht.
In Kapitel 3 werden algorithmische Herangehensweisen beschrieben, die geeignet sind, von der (mithilfe des LLL gezeigten) Existenz gewisser Objekte zur tatsächlichen Konstruktion derselben zu gelangen.
In Kapitel 4 wird anhand von Beispielen aus dem reichen Schatz neuerer Veröffentlichungen gezeigt, welche Bewegung nach der Arbeit von Moser und Tardos entstanden ist. Dabei beleuchtet die Arbeit nicht nur einen anwendungsorientierten Beitrag von Haeupler, Saha und Srinivasan, sondern auch einen Beitrag Terence Taos, der die Beweistechnik Mosers aus einem anderen Blickwinkel beleuchtet.
Der Hoppe-Baum ist eine zufällig wachsende, diskrete Baumstuktur, wobei die stochastische Dynamik durch die Entwicklung der Hoppe Urne wie folgt gegeben ist: Die ausgezeichnete Kugel mit der die Hoppe Urne startet entspricht der Wurzel des Hoppe Baumes. In der Hoppe Urne wird diese Kugel mit Wahrscheinlichkeit proportional zu einem Parameter theta>0 gezogen, alle anderen Kugeln werden mit Wahrscheinlichkeit proportional zu 1 gezogen. Wann immer eine Kugel gezogen wird, wird sie zusammen mit einer neuen Kugel in die Urne zurückgelegt, was in unserem Baum dem Einfügen eines neuen Kindes an den gezogenen Knoten entspricht. Im Spezialfall theta=1 erhält man einen zufälligen rekursiven Baum.
In der Arbeit werden Erwartungswerte, Varianzen und Grenzwertsätze für Tiefe, Höhe, Pfadlänge und die Anzahl der Blätter gegeben.
Wir führen eine neue Unterklasse der Fourier Hyperfunktionen mit polynomialen Wachstumsbedingungen ein mit dem Ziel, asymptotische Entwicklungen von Hyperfunktionen studieren zu wollen, wie sie für gewisse Distributionenklassen bekannt sind. Wir entwickeln zuerst die Theorie analytischer Funktionale auf Räumen integrabler Funktionen bezüglich Maßen mit Wachstum O(|Re z|^gamma), wobei gamma in R ist, im Unendlichen. Ein an das berühmte Phragmén-Lindelöf-Prinzip erinnerndes, einfaches analytisches Resultat bildet die Basis der Dualitätstheorie dieser Räume zu Funktionen mit festgelegtem Wachstumstyp. Wir studieren diese Dualität analytischer Funktionale mit Wachstumsbedingungen und unbeschränkten Trägern gründlich in einer Dimension unter Verwendung des von den Fourier Hyperfunktionen her bekannten exponentiell abfallenden Cauchy-Hilbert-Kerns. Daraus ergeben sich Analoga zu den Theoremen von Runge und Mittag-Leffler, die die Grundlage für die Garbentheorie der Hyperfunktionen mit polynomialen Wachstumsbedingungen sind, die wir sodann entwickeln. Die für uns wichtigsten neuen Klassen von Fourier Hyperfunktionen sind die von unendlichem Typ, das heißt solche, die wie eine beliebige Potenz wachsen beziehungsweise schneller als jede Potenz abfallen. In n Dimensionen benutzen wir die Fouriertransformation und Dualität um das Verhältnis dieser temperierten beziehungsweise asymptotischen Hyperfunktionen zu bekannten Distributionenräumen zu studieren. Wir leiten Theoreme vom Paley-Wiener-Typ her, die es uns erlauben, unsere Hyperfunktionen in ein Schema zu ordnen, das Wachstumsordnung und Singularität gegenüberstellt. Wir zeigen, daß dieses Schema eine sinvolle Erweiterung des von Gelfand und Shilow zur Charakterisierung von Testfunktionenräumen eingeführten Schemas der Räume S(alpha,beta) um verallgemeinerte Funktionen ist. Schließlich zeigen wir die Nuklearität der temperierten und asymptotischen Hyperfunktionen. Wir zeigen, daß die asymptotischen Hyperfunktionen genau die Klasse bilden, die Moment-asymptotische Entwicklungen erlauben, wie sie von Estrada et al. für Distributionen betrachtet wurden. Estradas Theorie ist damit ein Spezialfall der unsrigen. Für Hyperfunktionen lassen sich aber dank des Konzeptes der standard definierenden Funktionen die Moment-asymptotischen Entwicklungen als klassische asymptotische Entwicklungen von analytischen Funktionen verstehen. Wir zeigen die einfache Beziehung zwischen der Moment-asymptotischen Entwicklung und der Taylorentwicklung der Fouriertransformierten und benutzen dann ein Resultat von Estrada, um die Vollständigkeit unseres Moment-asymptotischen Schemas abzuleiten. Wir geben genaue Bedingungen für die Moment-Folgen von Hyperfunktionen mit kompaktem Träger an, die kürzlich von Kim et al. gefunden wurden. Die asymptotischen Entwicklungen übertragen wir auf den höherdimensionalen Fall, indem wir die von Kaneko und Takiguchi eingeführte Radontransformation für Hyperfunktionen verwenden. Die wohlbekannte Beziehung zwischen Radon- und Fouriertransformation zeigt wiederum das enge Verhältnis von asymptotischer Entwicklung zur Taylorentwicklung der Fouriertransformierten. Wir benutzen Kims Resultate, um die Moment-Folgen von Hyperfunktionen zu charakterisieren, die von Kugeln mit endlichem Radius getragen werden. Schließlich verwenden wir das Träger-Theorem der Radontransformation, um ein Resultat über das Singularitätenspektrum aus Bedingungen an die Radontransformierte abzuleiten.
In der vorliegenden Arbeit werden Aspekte autonomer und nichtautonomer dynamischer Systeme behandelt, wobei Attraktoren und verwandte Objekte eine wichtige Rolle spielen werden. Zunächst findet man in einem Kapitel über dynamische Systeme die Definition der grundlegenden Begriffe Attraktor, Repeller und Schiefproduktfluss, gefolgt von zwei hinreichenden Bedingungen für die Existenz von Attraktoren. Mit den Attraktoren und Repellern können dann im nächsten Kapitel Morsemengen eingeführt werden. Dadurch kann das Verhalten eines dynamischen Systems qualitativ beschrieben werden. Des weiteren wird auf die Bedeutung der Kettenrekurrenzmenge für die Morsemengen eingegangen. Im Kapitel über Kontrolltheorie wird, nach einer kurzen Einführung in dieses Gebiet, gezeigt, dass der dort definierte Lift einer Kettenkontrollmenge unter gewissen Voraussetzungen eine Morsemenge ist. Im letzten Kapitel geht es um Pullback-Attraktoren, die unter den angegebenen Bedingungen als Attraktoren für den Schiefproduktfluss interpretiert werden können.
Die Mathematik ist gleichermaßen eine Kulturwissenschaft mit langer Tradition als auch treibende Kraft hinter vielen modernen Technologien und damit Schlüsseldisziplin des Informationszeitalters. Zum einen zielt die Mathematik darauf ab, abstrakte Strukturen und ihre Zusammenhänge zu verstehen; zum anderen entwickelt sie kraftvolle Methoden, um Frage- und Problemstellungen in zahlreichen Wissenschaftsdisziplinen zu behandeln. Moderne Anwendungen der Mathematik liegen beispielsweise in den Bereichen der Datensicherheit und -kompression, der Verkehrssteuerung, der Bewertung und Optimierung von Finanzinstrumenten oder der medizinischen Operationsplanung.
In dieser Broschüre stellen wir Ihnen das Profil der Frankfurter Mathematik in Forschung und Lehre sowie speziell die Studiengänge
• Bachelor Mathematik
• Master Mathematik
vor. An der Goethe-Universität ist es auch möglich, Mathematik auf Lehramt (L1, L2, L3, L5) zu studieren. ...
In dem Artikel ,,Zur Axiomatik der Mengenlehre" habe ich die Axiome, die sich mit den Gebieten der Äquivalenz, der Mengenteilung und Mengenuergleichung beschäftigen, einer Erörterung unterzogen. An zwei Resultate dieses Artikels knüpfe ich hier an. Erstens einmal, da die in ihm durchgeführten Untersuchungen auf die Elemente der Mengen gar nicht eingehen, so stellen sie, allgemein gesprochen, axiomatische Betrachtungen über Größen und Größenbeziehungen dar, an denen die Mengen ja Teil haben; und zweitens hatte eine der dort analysierten Beziehungen den Gedanken nahegelegt, auch Größen entgegengesetzter Art (resp. Mengen von zweierlei Art von Elementen) in Betracht zu ziehen, und auf sie die oben genannten Operationen auszudehnen. Hier nun gebe ich im folgenden einige Ergänzungen. Bereits a. a. O.war bemerkt worden, daß es naturgemäß der Untersuchung bedarf, ob für die so charakterisierten Mengen die weiteren allgemeinen Sätze der Cantorschen Theorie in Kraft bleiben. Inzwischen hat mir Herr A. Fränkel mitgetelt, daß für das von mir konstruierte Beispiel schon ein Teil der in meinem Artikel zugrunde gelegten Axiome versagt; und zwar ein Teil der Axiome über Teilmengen. Über Teilmengen habe ich zwei Axiome an die Spitze gestellt. ......
Diese Arbeit beschäaftigt sich mit den Eigenschaften dynamischer Systeme, die in Form von autonomen Differentialgleichungen vorliegen. Genauer: Das Langzeitverhalten dieser dynamischen Systeme soll untersucht werden. Es läßtt sich beschreiben durch für das jeweilige System charakteristische Mengen, die attrahierenden Mengen und deren Einzugsbereiche. Attrahierende Mengen sind bezüglich eines dynamischen Systems invariante Mengen, die Trajektorien des dynamischen Systems, die in ihrer Umgebung starten, anziehen. Der Einzugsbereich einer attrahierenden Menge ist die Menge aller Punkte, die von der attrahierenden Menge angezogen werden. Betrachtet werden Systeme, die von einer Eingangsfunktion abhängen. Diese Eingangsfunktion kann je nach Zusammenhang eine Störung des dynamischen Systems oder eine Kontrolle desselben darstellen. Werden Störungen betrachtet, so sind Eigenschaften des dynamischen Systems, die für alle Eingangsfunktionen gelten, zu untersuchen. Diese werden in dieser Arbeit als starke Eigenschaften bezeichnet. Werden Kontrollen betrachtet, sind Eigenschaften des dynamischen Systems, die nur für mindestens eine Eingangsfunktion erfüllt sind, zu untersuchen. Sie werden hier als schwache Eigenschaften bezeichnet. Man betrachte beispielsweise einen Punkt, der zu einer invarianten Menge gehört. Zu jeder Eingangsfunktion gibt es eine zugehörige Trajektorie, die an diesem Punkt startet. Starke Invarianz bedeutet, daß keine dieser Trajektorien jemals die invariante Menge verläßt, schwache Invarianz, da mindestens eine dieser Trajektorien niemals die invariante Menge verläßt. Der Schwerpunkt dieser Arbeit liegt auf der Untersuchung der schwachen Einzugsbereiche. Sie lassen sich nur in Ausnahmefällen durch theoretische Überlegungen finden. Daher ist es von Nutzen, diese Mengen numerisch zu berechnen. Hier soll deshalb die benötigte Theorie bereitgestellt werden, um schwache Einzugsbereiche mit einem Unterteilungsalgorithmus anzunähern. Ein Unterteilungsalgorithmus dient allgemein dazu, innerhalb einer vorgegebenen Grundmenge eine Menge, die eine bestimmte Eigenschaft hat, zu finden. Die Idee eines solchen Algorithmus ist es einfach, die Grundmenge in "Zellen" zu unterteilen und für jede dieser Zellen zu prüfen, ob sie ganz, gar nicht oder teilweise zur gesuchten Menge gehört. Gehört eine Zelle nur teilweise zur gesuchten Menge, so wird sie weiter unterteilt und für die "Teilzellen" erneut entschieden, ob sie zur gesuchten Menge gehören. Für die Berechnung eines schwachen Einzugsbereiches bedeutet dies, daß für jede Zelle überprüft werden muß, ob es eine Kontrollfunktion gibt, mit deren Hilfe Trajektorien der betrachteten Differentialgleichung, die innerhalb der Zelle starten, in eine gegebene schwach attrahierende Menge (bzw. eine passend gewählte Umgebung dieser Menge) gesteuert werden können.
Finanzderivate gelten als obskur, verwickelt und riskant. Und das nicht zu Unrecht, wie die aktuelle Krise der globalen Finanzmärkte zeigt. Um Finanzderivate richtig bewerten zu können, bedarf es ausgefeilter Methoden der Finanzmathematik. Ausgelöst durch den explosionsartigen Anstieg des Derivatehandels hat sich die Mathematik zu einer Schlüsseltechnologie auf modernen Finanzmärkten entwickelt. Sie stellt den Finanzakteuren das mathematische Werkzeug für ihr Risikomanagement zur Verfügung.
Okamoto (Crypto 1992) hat die RSA-Repräsentation als Basis eines gegen aktive Angreifer sicheren Identifikationsschemas eingeführt. Eine RSA- Repräsentation von X E Z * N ist ein Paar (x; r) E Z e x Z * N mit X = g x r e (mod N) für vorgegebenes g E ZN , RSA-Modul N und primen RSA- Exponenten e. Das zugehörige Repräsentationsproblem, also das Auffinden eines Wertes X samt zweier verschiedener Darstellungen, ist äquivalent zum RSA-Problem, der Berechnung einer e-ten Wurzel von g modulo N . Von Brassard, Chaum und Crépeau (Journal Computing System Science, 1988) sowie Damgard (Journal of Cryptology, 1995) stammt eine analoge Konstruktion der Form X = g x r 2 t (mod N) mit x E Z 2 t für den Spezialfall der Blum-Zahlen als Modul N und gegebenes t größer gleich 1, wo die Möglichkeit, zwei verschiedene Repräsentationen zu berechnen, gleichbedeutend zur Zerlegung des Moduls in die Primfaktoren ist. Im ersten Abschnitt der vorliegenden Arbeit verallgemeinern wir dieses Konzept systematisch auf beliebige (RSA-)Module durch die Einführung eines Anpassungsparameters r:= r (N ), so dass X = g x r 2 r t (mod N) mit x E Z 2 t. Basierend auf dieser als Faktorisierungsrepräsentation bezeichneten Darstellung leiten wir Identifikations-, Signatur- und Blinde-Unterschriften-Verfahren her. Im zweiten Teil verwenden wir sowohl RSA- als auch Faktorisierungsrepräsentation als Grundlage sogenannter non-malleable Commitment-Schemata zur Hinterlegung (Verbriefung) einer geheimen Nachricht. Bei dem von Dolev, Dwork und Naor (SIAM Journal on Computing, 2000) eingeführten Begriff der Non-Malleability soll ein Angreifer außer Stande sein, die Hinterlegung einer Nachricht m so abzuändern, dass er diese später dann mit einem in Relation zu m stehenden Wert, man denke zum Beispiel an m 1, aufdecken kann. Von Dolev, Dwork und Naor stammt ein allgemeiner Ansatz zur Konstruktion von non-malleable Commitment-Schemata aufbauend auf einem sogenannten Knowledge-Extraktor. Für die RSA-Darstellung verfügt das von Okamoto entworfene Protokoll als Proof-Of-Knowledge über einen solchen Extraktor, bei dem im Fall der Faktorisierungsrepräsentation von uns entwickelten Verfahren fehlt allerdings der Extraktor. Aus diesem Grund stellen wir mit Hilfe des Chinesischen Restsatzes ein neues, auf Commitments zugeschnittenes Protokoll mit Knowledge-Extraktor vor, das in Verbindung mit der Faktorisierungsrepräsentation ein effizientes Hinterlegungsschema ergibt. Zum Abschluß wird bei einem Commitment- Verfahren mit abgeschwächter Non-Malleability-Eigenschaft von Di Crescenzo, Katz, Ostrovsky und Smith (Eurocrypt 2001) die RSA- durch die Faktorisierungsrepräsentation ersetzt und das Schema vereinfacht.
Binärsuchbäume sind eine wichtige Datenstruktur, die in der Informatik vielfach Anwendung finden. Ihre Konstruktion ist deterministisch, zur Analyse ihrer Eigenschaften wird aber eine rein zufällige Eingabe zugrundegelegt. Viele Größe, wie z.B. Tiefe, Höhe und Pfadlänge werden seit Jahren viel untersucht. Als besonders interessant hat sich die Analyse des Profils, der Anzahl Knoten einer bestimmten Tiefe herausgestellt. In dieser Arbeit wird ein funktionaler Grenzwertsatz für das am Erwartungswert normierte Profil vorgestellt. Dazu werden unterschiedliche Zugänge gewählt, die hauptsächlich auf dem sogenannten Profil-Polynom beruhen. Zunächst wird ein klassischer Zugang mit Hilfe von Martingalen besprochen. Der diskrete Prozess wird dazu auf kanonische Weise in ein zeitstetiges Modell (Yule-Prozess) eingebettet. Ergebnisse im kontinuierlichen Prozess werden dann durch Stoppen auf den diskreten übertragen. Zudem wird ein neuerer Zugang vorgestellt, der auf der Kontraktionsmethode in Banachräumen unter Verwendung der Zolotarev-Metrik beruht.
Das Assignment Problem ist ein bekanntes kombinatorisches Optimierungsproblem, bei dem es darum geht, in einem gewichteten bipartiten Graphen ein Matching mit minimalem Gewicht zu finden. In dieser Arbeit sind die Kantengewichte exponentialverteilt zu speziell gewählten Raten. Damit sind Erwartungswert und Varianz des minimalen Gewichts von besonderem Interesse. Zunächst wird ein Beweis der Parisi Formel und der Coppersmith-Sorkin Formel erläutert. Die Formeln beschreiben den Erwartungswert des minimalen Gewichts im Fall, dass die Raten alle dem Wert 1 entsprechen. Im zweiten Teil wird die Herleitung einer expliziten Formel zur Berechnung der Varianz des zufälligen minimalen Gewichts erklärt, wobei die Raten immer noch mit 1 übereinstimmen. Gleichzeitig wird eine Formel für die höheren Momente geliefert, aus der die Parisi Formel und Coppersmith-Sorkin Formel aus dem ersten Teil folgen und die sogar das bisherige Modell bezüglich der Parameter erweitert. Schließlich kann man das Ergebnis des zweiten Teils zur Beschreibung des asymptotischen Verhaltens der Varianz benutzen.
Der Zufall – ein Helfer und kein Störenfried : warum die Wissenschaft stochastische Modelle braucht
(2008)
Der Zufall hat in den Wissenschaften weithin einen zweifelhaften Ruf. Für die Philosophie hat Hegel festgestellt: »Die philosophische Betrachtung hat keine andere Absicht, als das Zufällige zu entfernen« (Die Vernunft in der Geschichte, 1822) – und ähnlich denkt man auch in anderen Wissenschaften. Die Auseinandersetzungen der Physik mit dem Zufall sind verschlungen und bis heute von Kontroversen begleitet. Was die Biologie betrifft, so herrscht noch einiger Argwohn gegenüber den modernen Evolutionstheorien, die sich entscheidend auf den Zufall stützen. Und dass derartige Theorien unvereinbar sind mit der Vorstellung von einer göttlichen Schöpfung der Welt, gilt unter manchen ihrer Gegner wie Befürworter als ausgemacht.
Aus Sicht der Pädagogischen Psychologie ist Lernen ein Prozess, bei dem es zu überdauernden Änderungen im Verhaltenspotenzial als Folge von Erfahrungen kommt. Aus konstruktivistischer Perspektive lässt sich Lernen am besten als eine individuelle Konstruktion von Wissen infolge des Entdeckens, Transformierens und Interpretierens komplexer Informationen durch den Lernenden selbst beschreiben. Erkennt der Lernende den Sinn und übernimmt, erweitert oder verändert ihn für sich selbst, so ist der Grundstein für nachhaltiges Lernen gelegt.
Lernen ist ein sehr individueller Prozess. Schule muss also individuelles Lernen auch im Klassenverband ermöglichen und der Lehrende muss zum Lerncoach werden, da sonst kein individuelles und eigenaktives Lernen möglich ist. Das Unterrichtskonzept des forschend-entdeckenden Lernens bietet genau diese Möglichkeit. Es erlaubt die Erfüllung der drei Grundbedürfnisse eines Menschen nach Kompetenz, Autonomie und sozialer Eingebundenheit und ermöglicht damit Motivation, Leistung und Wohlbefinden (Ryan & Deci, 2004).
Forschend-entdeckendes Lernen im Mathematikunterricht ist schrittweise geprägt von folgenden Merkmalen:
- eine problemorientierte Organisation
- selbstständiges, eigenaktives und eigenverantwortliches Lernen der Schülerinnen und Schüler
- individuelle Lernwege und Lernprozesse
- Entwicklung eigener Fragestellungen und Vorgehensweisen der Lernenden
- eigenes Aufstellen von Hypothesen und Vermutungen; Überprüfung der Vermutungen; Dokumentation, Interpretation und Präsentation der Ergebnisse
- eine fördernde Atmosphäre, in der die Lernenden nach und nach forschende Arbeitstechniken vermitteln bekommen
- kooperative Lernformen und damit Förderung von Team- und Kommunikationsfähigkeit
- Unterrichtsinhalte mit hohem Realitäts- und Sinnbezug, gesellschaftlicher Relevanz, Möglichkeiten der Interdisziplinarität
- Stetige Angebote der Unterstützung
Das entdeckende Lernen kann als Vorstufe des forschenden Lernens gesehen werden, da hier der wissenschaftliche Fokus noch nicht so stark ausgeprägt ist. Um alle Phasen auf dem Weg zu annähernd wissenschaftlichen forschenden Lernens anzusprechen, verwenden wir den Begriff des forschend-entdeckenden Lernens.
Voraussetzung ist, dass die Lehrkräfte das forschende Lernen als aktiven, produktiven und selbstbestimmten Lernprozess selbst zuvor erlebt haben müssen. Unter anderem können die Lehrkräfte Unterrichtsprozesse danach besser planen und währenddessen unterstützen, da sie selbst forschend-entdeckendem Lernen „ausgesetzt“ waren und vergleichbare Prozesse durchlebt haben.
Hiermit wird deutlich, dass forschendes Lernen nicht bedeuten kann, dass die Schülerinnen und Schüler auf sich gestellt sind. Die gezielte Unterstützung der Lernenden beim Entdecken und Forschen durch die Lehrkraft ist für einen ertragreichen Lernerfolg unverzichtbar und muss Teil der Vorbereitung und des Prozesses sein.
Internationale Studien zeigen, dass forschend-entdeckende Unterrichtsansätze (inquiry-based learning IBL) im Mathematikunterricht bei geeigneter Umsetzung Lernen verbessern, Lernerfolg und Lernleistung steigern und Freude gegenüber Mathematikunterricht erhöhen können. Die Implementierung dieses Unterrichtsansatzes ist trotz der positiven Ergebnisse nicht alltäglich.
Um neue Unterrichtskonzepte in den Schulalltag zu bringen beziehungsweise um bestehende Unterrichtskonzepte neu in den Schulalltag zu bringen bedarf es Fortbildungen zur Professionalisierung von Lehrerinnen und Lehrern.
Bei der Untersuchung des Langzeitverhaltens von Verzweigungsprozessen und räumlich verzweigenden Populationen ist die Betrachtung von Stammbäumen zunehmend in den Vordergrund gerückt. Probabilistische Methoden haben die in der Theorie vorherrschenden analytischen Techniken ergänzt und zu wesentlichen neuen Einsichten geführt. Die vorliegende Synopse diskutiert eine Auswahl meiner Veröffentlichungen der letzten Jahre. Den Arbeiten ist gemeinsam, dass durch das Studium der genealogischen Verhältnisse in der Population Aussagen über deren Langzeitverhalten gewonnen werden konnten. Zwei dieser Arbeiten behandeln den klassischen Galton-Watson Prozess. Eine weitere Arbeit befasst sich mit Verzweigungsprozessen in zufälliger Umgebung, sie ist technische wesentlich anspruchsvoller. Die vierte der hier besprochenen Arbeiten beschäftigt sich mit dem Wählermodell, einem der Prototypen interagierender Teilchensysteme.
Eine Woche lang präsentieren Wissenschaftler*innen Ergebnisse aus der mathematikdidaktischen Forschung und Lehr-Lern-Konzepte für mathematisches Lernen von Schüler*innen sowie für das mathematische und mathematikdidaktische Lernen in den verschiedenen Phasen der Lehrer*innenbildung. Der UniReport sprach mit den Organisatorinnen der Tagung – Prof.in Dr. Susanne Schnell, Prof.in Dr. Rose Vogel und Prof.in Dr. Jessica Hoth – über das Programm der Tagung und über die künftige Ausrichtung des Faches Mathematik.
Informationsverarbeitung im Gehirn basiert auf dem koordinierten Zusammenwirken von Milliarden von Nervenzellen. Um diese Codes zu entschlüsseln, sind komplexe Verfahren experimenteller Datenerhebung und theoretischer Datenanalyse notwendig. Denn auch wenn alle Zellen im selben Rhythmus agieren, kann sich jede auf ihre Art am Konzert beteiligen. Die verschiedenen Stimmen äußern sich in zeitlichen Mustern, die sich experimentell kaum vom Rauschen unterscheiden lassen. Erst mithilfe statistischer Verfahren konnten winzige zeitliche Verzögerungen als nicht zufällig identifiziert werden.
Der Begriff der editierfreundlichen Kryptographie wurde von Mihir Bellare, Oded Goldreich und Shafi Goldwasser 1994 bzw. 1995 eingeführt. Mit einem editierfreundlicher Verschlüsselungs- oder Unterschriftenverfahren kann man aus einer Verschlüsselung bzw. Unterschrift zu einer Nachricht schnell eine Verschlüsselung oder Unterschrift zu einer ähnlichen Nachricht erstellen. Wir geben eine Übersicht über die bekannten editierfreundlichen Verfahren und entwickeln sowohl ein symmetrisches als auch ein asymmetrisches editierfreundliches Unterschriftenverfahren (IncXMACC und IncHSig). Wir zeigen, wie man mit editierfreundlichen Schemata überprüfen kann, ob die Implementierung einer Datenstruktur korrekt arbeitet. Basierend auf den Ideen der editierfreundlichen Kryptographie entwickeln wir effiziente Verfahren für spezielle Datenstrukturen. Diese Ergebnisse sind in zwei Arbeiten [F97a, F97b] zusammengefaßt worden.
In der vorliegenden Diplomarbeit beschäftigen wir uns mit kryptographisch sicheren Pseudozufallsgeneratoren. Diese e±zienten Algorithmen erzeugen zu zufälliger Eingabe deterministisch eine längere Bitfolge, die praktisch von einer Folge zufälliger Münzwürfe nicht unterscheidbar ist. Wir geben die Definitionen von A. Yao sowie M. Blum und S. Micali, beweisen die Äquivalenz und charakterisieren den Unterschied zur klassischen Sichtweise von Zufallsgeneratoren. Mit der Blum-Micali-Konstruktion zeigen wir, wie man aus einer Oneway-Permutation und zugehörigem Hardcore-Prädikat einen kryptographisch sicheren Pseudozufallsgenerator konstruiert: Man wendet auf einen zufälligen Startwert iterativ die Oneway-Funktion an und gibt jeweils das Hardcore-Prädikat des Urbilds aus. Wir stellen das allgemeine Hardcore- Prädikat inneres Produkt modulo 2 von L.A. Levin und O. Goldreich vor und beweisen mit Hilfe des XOR-Lemmas von U.V. Vazirani und V.V. Vazirani die Verallgemeinerung zu einer Hardcore-Funktion, die statt eines Prädikats mehrere Bits ausgibt. Man geht davon aus, daß die Verschlüsselungsfunktionen des RSA- und des Rabin-Public- Key-Kryptosystems Oneway-Permutationen sind. Basierend auf dem Rabin-System haben L. Blum, M. Blum und M. Shub den x2-mod-N-Generator aufgebaut, W. Alexi, B. Chor, O. Goldreich und C.P. Schnorr haben den RSA-Generator konstruiert und den Sicherheitsbeweis zum x2-mod-N-Generator verbessert. Diese Generatoren basieren auf der Blum-Micali-Konstruktion mit dem Hardcore-Prädikat des untersten Bits. Durch neue Ideen können wir die beweisbare Sicherheit der Generatoren deutlich erhöhen, so daß in der Praxis kleinere Schlüssellängen genügen. Bisher war zum Beispiel für den x2-mod-N-Generator bekannt, daß man mit einem Algorithmus A, der das unterste Bit der Wurzel modulo einer n-Bit- Blumzahl mit Wahrscheinlichkeit 1 2 + ² in Zeit |A| = ¡n3¢ berechnet, den Modul in Zeit O¡n3² 9|A|¢ mit Wahrscheinlichkeit ²2 64 faktorisieren kann. Wir verbessern die Laufzeit zu O¡n² 4 log2(n² 1)|A|¢ und Wahrscheinlichkeit 1 9 . Diese neuen Resultate wurden auf der Eurocrypt-Konferenz im Mai 1997 in Konstanz vorgestellt, D.E. Knuth hat sie bereits in die neue Auflage seines Standardwerks The Art of Computer Programming aufgenommen.
Es steht außer Zweifel, daß digitale Signaturen schon bald zu unserem Alltag gehören wer- den. Spätestens mit dem Inkrafttreten des Gesetzes zur digitalen Signatur (siehe [BMB]) sind sie zu einem wichtigen Instrument in der Telekommunikation geworden. Dabei kommt der Verwendung von Chipkarten eine wichtige Bedeutung zu: In ihnen lassen sich die sensiblen Daten (z.B. der geheime Schlüssel) auslesesicher aufbewahren; gleichzeitig können sie bequem mitgeführt werden. Aus diesen Gründen erlebt die Verwendung von Chipkarten zur Erzeugung von digitalen Signaturen zur Zeit einen enormen Aufschwung. Problematisch ist jedoch der oft unverhältnismäßig große Berechnungsaufwand für die Erzeugung von digitalen Signaturen. Ziel dieser Arbeit ist es, Methoden zu entwickeln und/oder zu untersuchen, welche die Berechnung digitaler Unterschriften wesentlich beschleunigen. Dabei spiegelt sich die Zweiteilung der in der Praxis hauptsächlich verwendeten Typen von Signaturverfahren in der Struktur der Arbeit wider. Der erste Teil dieser Arbeit untersucht Verfahren zur effizienten Berechnung von RSA-Unterschriften. Dabei entstanden die Untersuchungen in den Abschnitten 3.2.3 und 3.2.4 in Zusammenarbeit mit R. Werchner und der Inhalt der Abschnitte 3.1 - 3.2.4 ist bereits in [MW98] veröffentlicht. Im zweiten Teil entwickeln wir Verfahren zur effizienteren Generierung von Unterschriften, die auf dem diskreten Logarithmus basieren, und untersuchen deren Sicherheit. Dabei entstanden die Untersuchungen in den Abschnitten 4.2 (bis auf 4.2.2) und 4.3.1 in Zusammenarbeit mit C. P. Schnorr und sind teilweise in [MS98] zusammengefaßt. Obwohl diese Arbeit eine mathematische Abhandlung darstellt, versuchen wir, die praktische Anwendung nicht aus den Augen zu verlieren. So orientieren sich die betrachteten Verfahren stets an den durch die verfügbare Technologie gegebenen Rahmenbedingungen. Darüber hinaus richten wir unser Augenmerk weniger auf das asymptotische Verhalten der betrachteten Verfahren, als vielmehr auf konkrete, für die Anwendung relevante Beispiele.
In der vorliegenden Arbeit wird ein interaktives Beweisprotokoll für das Problem der "überprüfbaren Verschlüsselung" (verifiable encyption) vorgestellt. Mit Hilfe eines Verifiable Encryption Protokolls (VEP) beweist eine Person (der Prover) einer anderen Person (dem Verifier) effizient, daß ein vorher gesendeter Wert alpha die Verschlüsselung eines geheimen Wertes s ist. Den geheimen Wert s muß er dazu nicht offenlegen. Zur Verschlüsselung von s wird ein Public-Key-Verfahren und ein öffentlicher Schlüssel PK benutzt. PK gehört zum Schlüsselpaar einer dritten Partei, die nicht aktiv an der Protokollausführung beteiligt ist und die Rolle eines Notars einnimmt. Dem Verifier steht ein Wert d zur Verfügung, anhand dessen er entscheidet, ob er den Beweis akzeptiert oder verwirft. Akzeptiert der Verifier den Beweis des Provers, so kann er zwar mit an Sicherheit grenzender Wahrscheinlichkeit sagen, daß alpha eine Verschlüsselung von s unter dem öffentlichen Schlüssel PK ist. Er kann s jedoch nicht rekonstruieren, da er nicht im Besitz des zu PK gehörigen geheimen Schlüssels SK ist und der Beweis keine Informationen über s preisgibt.
Der Bolthausen-Sznitman Koaleszent ist ein zeitstetiger Markovprozess mit Werten in der Menge der Partitionen der natürlichen Zahlen. Der Prozess startet in Singletons und seine Dynamik erlaubt lediglich Übergänge in gröbere Partitionen. In dieser Arbeit wird der Bolthausen-Sznitman Koaleszent zum Zeitpunkt seines letzten Übergangs analysiert. Das Hauptresultat ist ein Grenzwertsatz, welcher eine gemeinsame Aussage sowohl über die Blockanzahl als auch über die Blockgrößen des Koaleszenten zu diesem Zeitpunkt macht. Dafür wird der Koaleszent durch ein gewisses Abholzverfahren zufälliger rekursiver Bäume modelliert, wobei diese Bäume wiederum anhand von Yule-Prozessen generiert werden.
Ein Mathematiker mit universalem Anspruch : über Max Dehn und sein Wirken am Mathematischen Seminar
(2002)
Für eine erste Blüte der Mathematik in Frankfurt gab Max Dehn (1878 –1952) in den Jahren ab 1921 bis 1935 entscheidende Impulse. Seine völlig neuen Ideen zur Knotentheorie und zur Topologie beeinflussten die Entwicklung der Mathematik weit über Deutschland hinaus. 1935 fand sein Wirken in Frankfurt durch den Terror der Nationalsozialisten ein jähes Ende. Nach einer gefahrvollen Flucht über Norwegen, Finnland, die Sowjetunion und Japan erreichte Dehn schließlich, 62-jährig, die Vereinigten Staaten von Nordamerika. Eine seinen Fähigkeiten entsprechende Stellung konnte er dort nicht mehr erlangen. Sein fünfzigster Todestag in diesem Jahr ist Anlass für diese Rückschau.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Finanzderivate sind Produkte, die eine Möglichkeit bieten sich gegen künftige Preisschwankungen abzusichern oder auf eine zukünftige Preisentwicklung zu spekulieren. Die wichtigsten Arten von Finanzderivaten sind Optionen, Futures, Forwards und Swaps. Gegenstand vorliegender Bachelorarbeit werden ausschließlich Optionen sein. Auf den internationalen Finanzmärkten werden verschiedene Typen von Optionen gehandelt, weshalb sich die Frage des "fairen Preises" eines solchen Produktes stellt. Für viele gehandelte Optionen gibt es keine geschlossene Lösung zur Bestimmung des Preises, deshalb werden für diese numerische Verfahren zur Berechnung angewandt. Dabei muss beachtet werden, dass der Optionswert möglichst genau ist, jedoch sollte der Aufwand dabei ziemlich gering sein.
Ziel dieser Arbeit ist die Bestimmung eines numerischen Verfahrens, mit dem man europäische und amerikanische Multiasset-Optionen bewerten kann. Dieses Verfahren soll eine Erweiterung des bekannten Binomialverfahrens sein. Im Fokus steht dabei das Binomialverfahren, da es durch die Einschränkung auf zwei Entwicklungsmöglichkeiten in der Anwendung einfacher ist als das Black-Scholes-Modell. Dieses Verfahren ist nur für europäische und amerikanische Standard-Optionen definiert. Bei der Erweiterung muss beachtet werden, dass Multiasset-Optionen von mehreren Wertpapieren abhängen. In der Arbeit wird ein Produktbinomialverfahren entwickelt, das die Anzahl der Wertpapiere in der Dimension der entstehenden Bäume berücksichtigt. Dieses Verfahren konvergiert gegen das mehrdimensionale Black-Scholes-Modell und ist zu dessen graphischer Darstellung geeignet. Es wird jedoch auch gezeigt, dass dieses dem Fluch der Dimension unterliegt und somit der Aufwand für einen möglichst genauen Optionswert ziemlich hoch ist. Die Erweiterung dieses Verfahrens durch Dünne Gitter erzielt eine Optimierung der Laufzeit. Da der Fokus dieser Bachelorarbeit jedoch auf dem Produktbinomialverfahren liegt, wird im Folgenden auf diese Erweiterung nicht eingegangen.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.
Kieferorthopäden beschreiben die Anordnung der Zähne und die Stellung der Kiefer üblicherweise mittels Winkel und Strecken in der sagittalen Gesichtsebene. Im vorliegenden Fall werden fünf Winkel betrachtet und jedes Individuum lässt sich als Punkt in einem 5-dimensionalen Raum darstellen. Individuen, die laut Experten ein gut funktionierendes Gebiss und ein harmonisches Äußeres besitzen, formen eine Punktwolke, die im Folgenden als die Norm Population bezeichnet wird. Individuen fern von der Wolke benötigen kieferorthopädische Behandlung. Welche Form sollte dieser Eingriff annehmen? Durch Hilfsmittel der modernen Kieferorthopädie lassen sich die beschriebenen Winkel nahezu nach Belieben ändern. Dies ist natürlich verbunden mit einer unterschiedlichen Menge an Problemen, Arbeitsaufwand und Unannehmlichkeiten, abhängig vom individuellen Patienten. Diese Arbeit präsentiert eine Methode, die auf jedem Computer leicht implementierbar und auf k Variablen verallgemeinerbar ist. Sie ermöglicht Kieferorthopäden eine Visualisierung, wie verschiedene denkbare Anpassungen der Winkel eines Patienten dessen relative Position zur Norm Population verändern. Damit unterstützt sie Kieferorthopäden bei der Entscheidung für einen Behandlungsplan, der die besten Ergebnisse verspricht.
Eine nichtgeometrische Konstruktion der Spektren P(n) und multiplikative Automorphismen von K(n)
(1995)
In der vorliegenden Arbeit beschäftigen wir uns mit der Verallgemeinerung des Satzes von Belyi [B]. Dieser besagt, dass eine Riemannsche Fläche Y genau dann als algebraische Kurve über einem Zahlkörper definiert ist, wenn es auf Y eine nicht-konstante holomorphe Funktion gibt, die über höchstens drei Punkten verzweigt. Die Arbeit gliedert sich in zwei Teile. Wir untersuchen darin jeweils die Verallgemeinerung einer der beiden Implikationen aus dem Satz von Belyi auf Varietäten der Dimension zwei und höher. Im ersten Teil der Arbeit zeigen wir, dass eine n-dimensionale projektive komplex algebraische Varietät über einem Zahlkörper definiert ist, falls sie den Pn (oder eine beliebige projektive über Q definierte Varietät) endlich und höchstens über einem rationalen Divisor verzweigt überlagert. Dazu beschreiben wir im ersten Kapitel den Zusammenhang zwischen Varietäten und komplex analytischen Räumen. Wir zeigen, dass die Kategorie der endlichen algebraischen Überlagerungen einer projektiven komplexen Varietät äquivalent zur Kategorie der endlichen verzweigten analytischen Überlagerungen des assoziierten komplex analytischen Raumes ist. Außerdem erläutern wir den Zusammenhang zwischen topologisch unverzweigten Überlagerungen und deren Algebraisierung, den étalen Morphismen zwischen Varietäten. Im zweiten Kapitel führen wir Definitionskörper und Modulkörper von Varietäten ein. Anschließend untersuchen wir die Operation von Körperautomorphismen s E Aut (C/Q) auf komplexen Varietäten. Im dritten Kapitel zeigen wir zunächst, dass der Modulkörper einer endlichen Überlagerung eines geeigneten Grundraumes ein Zahlkörper ist. Danach stellen wir das Resultat von Derome [D] vor, nachdem es einen Definitionskörper im algebraischen Abschluss des Modulkörpers gibt. Daraus folgern wir die Verallgemeinerung dieser Richtung des Satzes von Belyi. Im zweiten Teil beschäftigen wir uns mit der Frage, wie der Verzweigungsdivisor D im Pn aussehen sollte, damit jede über Q definierte Varietät ein Modell besitzt, dass Pn endlich und nur über D verzweigt überlagert. Im vierten Kapitel stellen eine Heuristik zur Korrespondenz zwischen topologischen Überlagerungen und Körpererweiterungen von Q vor. Daraus leitet sich folgende Vermutung ab: Zu jeder über einem Zahlkörper definierten n-dimensionalen Varietät Y gibt es eine birational äquivalente normale Varietät Y und einen Morphismus f : Y -> Pn, der nur über dem Komplement von M0,n+3 verzweigt. Die Vermutung steht im Einklang mit dem eindimensionalen Satz von Belyi. Alle Modulräume erfüllen die Voraussetzung für die im dritten Kapitel bewiesene Umkehrung. Im letzten Kapitel beschäftigen wir uns mit komplex algebraischen Flächen. Wir zeigen, dass die Vermutung aus dem vierten Kapitel für abelsche Flächen richtig ist. Dieses Ergebnis haben wir gemeinsam mit Horst Hammer (Karlsruhe) erzielt. Anschließend geben wir einen Überblick über weitere Resultate in dieser Richtung. Schließlich beschreiben wir die topologischen Überlagerungen von M0,5 und stellen eine Verallgemeinerung der Dessins d'Enfants vor.
Die Vorstellung, daß ein Quantensystem zu jedem Zeitpunkt einen bestimmten Zustand (aus einem "klassischen" Phasenraum) einnimmt, ist im Formalismus der Quantenmechanik nicht vorgesehen. Man kann eine solche Vorstellung zwar verträglich mit den Regeln der QM unterhalten, jedoch erweisen sich dann ganz verschiedene Wahrscheinlichkeitsverteilungen auf dem Phasenraum als experimentell ununterscheidbar; solche Modelle postulieren sozusagen die Existenz einer "verborgenenen Information" neben den prüfbaren Fakten. Es wird gezeigt, daß dies für alle Modelle gilt, die mit den von der QM für jede Observable vorhergesagten Wahrscheinlichkeitsverteilung im Einklang stehen, selbst wenn sie erlauben, daß nicht jede Verteilung auf dem Phasenraum durch makroskopische Aparaturen präpariert werden kann bzw. daß das Meßergebnis garnicht deterministisch vom Zustand des Quantensystems abhängt, sondern das Meßgerät selbst einem (vom zu messenden System unabhängigen) Zufall unterliegt. Dazu ist eine gründliche Auseinandersetzung mit der Theorie der Wahrscheinlichkeitsmaße auf distributiven und auf nicht-distributiven Verbänden nötig.
Euklidische Zerlegungen nicht-kompakter hyperbolischer Mannigfaltigkeiten mit endlichem Volumen
(1998)
Epstein and Penner constructed in [EP88] the Euclidean decomposition of a non-compact hyperbolic n-manifold of finite volume for a choice of cusps, n >= 2. The manifold is cut along geodesic hyperplanes into hyperbolic ideal convex polyhedra. The intersection of the cusps with the Euclidean decomposition determined by them turns out to be rather simple as stated in Theorem 2.2. A dual decomposition resulting from the expansion of the cusps was already mentioned in [EP88]. These two dual hyperbolic decompositions of the manifold induce two dual decompositions in the Euclidean structure of the cusp sections. This observation leads in Theorems 5.1 and 5.2 to easily computable, necessary conditions for an arbitrary ideal polyhedral decomposition of the manifold to be a Euclidean decomposition.
Das Vertrauen vieler Menschen in ihre mathematischen und musikalischen Fähigkeiten ist oftmals sehr niedrig ausgeprägt oder wenig ausdifferenziert. Sie glauben, dass sie in dem einen oder anderen Fach (oder beiden) nicht gut seien. Hinzukommt, dass die Aussage „Ich kann nicht singen“ oder „Mathematik habe ich noch nie verstanden“ durchaus gesellschaftsfähig ist und sie nicht daran hindern muss, eine erfolgreiche Karriere zu durchlaufen, noch wird es die Meinung anderer über sie ändern.
Das Projekt „European Music Portfolio – Sounding Ways into Mathematics“ (EMP-Maths) möchte dieses Verständnis ändern. Jeder kann singen und Musik machen und jeder kann Mathematik treiben. Beide Themen sind integraler Bestandteil unseres Lebens und unserer Gesellschaft. Was geändert werden muss, ist das Bild von diesen beiden Fächern und die Fähigkeit von Lehrpersonen, Lernenden die Gelegenheit zu geben, dieses zu verändern und die beiden Fächer als bereichernd für die Lebensgestaltung einzustufen.
Beispielhaft wird im Arbeitsbuch eine Aktivität vorgestellt, in welcher Mathematik und Musik in einer Unterrichtssequenz miteinander verbunden werden. Weitere Aktivitäten, die in der Schule genutzt werden können, finden sich im Handbuch für Lehrerinnen und Lehrer. Viele weitere Beispiele und Vorschläge sind bereits vorhanden (siehe Web-Seite des Projekts) und wir möchten jeden ermutigen, sie zu nutzen. Die Auswahl im Handbuch deckt einige zentralen Felder der Mathematik und der Musik ab: Singen, Tanzen, Hören, Probleme lösen, Zahlen, Messen, Raum und Form. Mit diesem Ansatz wollen wir das Projekt an die Kerncurricula der beteiligten Länder anbinden: Deutschland, Griechenland, Rumänien, Slowakei, Spanien, Schweiz und Großbritannien. Die Dokumentation der Beispiele erfolgt in einer Art von Didaktischen Design Patterns, deren Struktur an die Anforderungen des Projekts angepasst wurde.
Das Projekt „Sounding Ways into Mathematics“ stellt Aktivitäten mit unterschiedlichen mathematischen und musikalischen Inhalten vor, um Lehrpersonen ein möglichst breites Spektrum an Hilfsmitteln, Ideen und Beispielen anbieten zu können. Diese Aktivitäten sind so aufgebaut, dass sie erweiter- und anpassbar an unterschiedliche Kontexte sowie auf die Bedürfnisse einer jeden Lehrperson und deren Schülerinnen und Schülern sind. Ferner wurden diese Aktivitäten nicht nur entwickelt, um von der Lehrperson instruktiv ausgeführt zu werden, sondern, um sie gemeinsam mit der Lerngruppe zu nutzen und eventuell sogar gemeinsam zu verändern und weiter zu entwickeln.
Das Projekt „Sounding Ways into Mathematics“ steht in Verbindung zum EMP-Sprachen Projekt „A creative Way into Languages“ (http://emportfolio.eu/emp/).
Staatsexamensarbeit 2002. In der nachfolgenden Arbeit werde ich im zweiten Kapitel theoretisch fraktionale Ableitungen vorstellen, um dann im dritten Kapitel praktisch mit MAPLE fraktionale Ableitungen zu veranschaulichen. Genauso werde ich auch das Gebiet der fraktionalen Differentialgleichungen einführen, d.h. zuerst wird ein theoretischer Teil über Lösungsmethoden behandelt und darauf folgend ein praktischer Teil, in dem mittels MAPLE diverse Gleichungen gelöst werden. Das zweite Dokument enthält MAPLE Programme aus der Arbeit (ZIP-Format, 145154 Bytes).
Frühe mathematische Bildung – Ziele und Gelingensbedingungen für den Elementar- und Primarbereich
(2017)
Im Rahmen der Schriftenreihe "Wissenschaftliche Untersuchungen zur Arbeit der Stiftung 'Haus der kleinen Forscher'" werden regelmäßig wissenschaftliche Beiträge von renommierten Expertinnen und Experten aus dem Bereich der frühen Bildung veröffentlicht. Diese Schriftenreihe dient einem fachlichen Dialog zwischen Stiftung, Wissenschaft und Praxis, mit dem Ziel, allen Kitas, Horten und Grundschulen in Deutschland fundierte Unterstützung für ihren frühkindlichen Bildungsauftrag zu geben.
Der vorliegende achte Band der Reihe mit einem Geleitwort von Kristina Reiss stellt die Ziele und Gelingensbedingungen mathematischer Bildung im Elementar- und Primarbereich in den Fokus.
Christiane Benz, Meike Grüßing, Jens Holger Lorenz, Christoph Selter und Bernd Wollring spezifizieren in ihrer Expertise pädagogisch-inhaltliche Zieldimensionen mathematischer Bildung im Kita- und Grundschulalter. Neben einer theoretischen Fundierung verschiedener Zielbereiche werden Instrumente für deren Messung aufgeführt. Des Weiteren erörtern die Autorinnen und Autoren Gelingensbedingungen für eine effektive und wirkungsvolle frühe mathematische Bildung in der Praxis. Sie geben zudem Empfehlungen für die Weiterentwicklung der Stiftungsangebote und die wissenschaftliche Begleitung der Stiftungsarbeit im Bereich Mathematik.
Das Schlusskapitel des Bandes beschreibt die Umsetzung dieser fachlichen Empfehlungen in den inhaltlichen Angeboten der Stiftung "Haus der kleinen Forscher".
Gegenstand dieser Arbeit sind Galoisoperationen auf quasiplatonischen Riemannschen Flächen mit einer Automorphismengruppe isomorph zu PSL(2,F(q)). Quasiplatonische Riemannsche Flächen werden durch torsionsfreie Normalteiler N in einer Dreiecksgruppe D uniformisiert, d.h. N ist die universelle Überlagerungsgruppe und die Flächen, die man auch als algebraische Kurven beschreiben kann, sind isomorph zu N\U, wenn U die obere Halbebene bezeichnet. Bzgl. der Größe der Automorphismengruppen bilden die quasiplatonischen Kurven die lokalen Maxima im Modulraum. Die absoluten Maxima liegen bei den Hurwitz-Kurven; hier hat die Automorphismengruppe die maximale Größe von 84(g-1), wenn g>1 das Geschlecht der Kurve ist. Der Normalisator in PSL(2,R) der Überlagerungsgruppe N ist dann die Dreiecksgruppe mit Signatur (2,3,7). Macbeath hat die Bedingungen dafür gefunden, wann PSL(2,F(q)) eine Hurwitz-Gruppe ist. Von besonderem Interesse ist dabei der Fall, dass q=p eine Primzahl kongruent +-1 mod 7 ist. Hier hat man drei nicht-isomorphe Kurven, die jedoch alle galoiskonjugiert zueinander sind. In der Arbeit werden Bedingungen angegeben, unter denen sich dieses Resultat auf Dreiecksgruppen D mit einer Signatur der Form (2,m_1,m_2) verallgemeinern lässt. Dabei gehen einerseits Ergebnisse von Frye ein, der die Anzahl der verschiedenen torsionsfreien Normalteiler N<D mit Quotienten PSL(2,F(q)) über die Spurtupel der Erzeugenden von D bestimmt hat. Andererseits wird eine Methode von Streit verwendet, mit der man die Galoisoperation auf den Kurven anhand des Verhaltens der Multiplikatoren der Erzeugenden in der Automorphismengruppe nachvollziehen kann. Es zeigt sich, dass sich Spur- und Multiplikatortupel entsprechen, woraus man die Anzahl und Länge der Galois-Orbits erhält. Außerdem lässt sich der Definitionskörper der Kurven bestimmen. Offen bleibt das genaue Verhalten bei Signaturen (m_0,m_1,m_2) mit m_i ungleich 2 für alle i. Hier gibt es zu jedem Multiplikatortupel zwei verschiedene Spurtupel. Kann man die Kurven durch die Multiplikatoren beschreiben, dann erhält man Projektionen D->>PSL(2,F(q)) auch über die Quaternionenalgebra, die die Dreiecksgruppe über ihrem Spurkörper erzeugt. Die Normalteiler erweisen sich dann als Schnitt der Dreiecksgruppe mit einer Hauptkongruenzuntergruppe nach einem Primideal P|char(F(q)) in der Norm-1-Gruppe einer Ordnung der Quaternionenalgebra. Dabei ist das Spurtripel in PSL(2,F(q)) gerade das Spurtripel aus D modulo P. Ändert man P, so erhält man ein anderes Spurtripel in PSL(2,F(q)), also auch einen anderen Normalteiler. Bilden die zugehörigen Kurven eine Bahn unter der Galoisoperation, dann ergeben sich alle Normalteiler auf diese Weise. Die Galoisoperation auf den Tripeln der Multiplikatoren, also die Galoisoperation auf den Kurven, ist verträglich mit der Operation, die die Primideale P|char(F(q)) permutiert. Wir erhalten also eine natürliche Korrespondenz zwischen der Galoisoperation auf den Kurven einerseits und der Operation auf den Primidealen andererseits.
Computer haben im Mathematik-Unterricht bisher vor allem die Funktion, Abstraktes bildlich zu veranschaulichen. Neu sind interaktive Programme, mit denen Schüler experimentieren und spielerisch ein Gefühl für Zusammenhänge entwickeln können. Erste Versuche zeigen, dass dieses Angebot, »Mathematik erfahrbar zu machen«, die Schüler stark motiviert. Computer sind wichtige Mittler zwischen der realen Welt und den Abstraktionen ihrer mathematischen Beschreibung. Denn: Mathematik wohnt den Dingen nicht inne, man sieht sie mit dem »mathematischen Blick« in die Dinge hinein. Erst dadurch gliedert sich der Raum um uns in Punkte, Strecken, Ebenen und all die anderen geometrischen Objekte. Diese Objekte selbst sind nicht real, und materielle Modelle, die wir zu ihrer Veranschaulichung heranziehen, unterliegen Einschränkungen, von denen man abstrahieren muss. Wir zeigen anhand zweier aktueller Entwicklungs- und Forschungsprojekte, wie Computer helfen können, diese Kluft zu überbrücken. ...
Gitter
(2000)
Wir verallgemeinern die Reduktionstheorie von Gitterbasen für beliebige Normen. Dabei zeigen wir neue Eigenschaften reduzierter Basen für die verallgemeinerten Reduktionsbegriffe. Wir verallgemeinern den Gauß-Algorithmus zur Reduktion zweidimensionaler Gitterbasen für alle Normen und erhalten eine universelle scharfe obere Schranke für die Zahl seiner Iterationen. Wir entwickeln für spezielle lp-Normen eine Variante des Gauß-Algorithmus mit niedriger Bit-Komplexität. Hierzu wird Schönhages schneller Reduktionsalgorithmus für quadratische Formen auf die Reduktion von Gitterbasen im klassischen zentrierten Fall übertragen.
Gitter sind diskrete, additive Untergruppen des IRm, ein linear unabhängiges Erzeugendensystem eines Gitters heißt Gitterbasis. Die Anzahl der Basisvektoren eines Gitters ist eindeutig bestimmt und heißt Rang des Gitters. Zu jedem Gitter vom Rang n gibt es mehrere Gitterbasen, die man alle erhält, indem man eine Basismatrix B = [b1, · · · , bn] von rechts mit allen Matrizen aus der Gruppe GLn(ZZ) multipliziert. Eine wichtige Fragestellung der Gittertheorie ist es, zu einem gegebenen Gitter einen kürzesten, vom Nullvektor verschiedenen Gittervektor zu finden. Dieses Problem heißt das kürzeste Gittervektorproblem . Ein dazu verwandtes Problem ist das "nächste Gittervektorproblem", das zu einem beliebigen Vektor x aus IRm einen Gittervektor sucht, dessen Abstand zu x minimal ist. Aus dem "kürzesten Gittervektorproblem" entwickelte sich die Gitterbasenreduktion, deren Ziel es ist, eine gegebene Gitterbasis in eine Gitterbasis zu transformieren, deren Vektoren bzgl. der Euklidischen Norm kurz und möglichst orthogonal zueinander sind. Wichtig für die Güte einer Reduktion ist der Begriff der sukzessiven Minima ¸1(L), · · · , ¸n(L) eines Gitters L. Dabei ist ¸i(L) die kleinste reelle Zahl r > 0, für die es i linear unabhängige Vektoren cj 2 L gibt mit kcjk · r für j = 1, · · · , i. Man versucht, für ein Gitter L eine Gitterbasis b1, · · · , bn zu finden, bei der die Größe kbik / ¸i(L) für i = 1, · · · , n möglichst klein ist. Für Gitter vom Rang 2 liefert das Gauß'sche Reduktionsverfahren eine Gitterbasis mit kbik = ¸i(L) für i = 1, 2. Eine Verallgemeinerung der Gauß-Reduktion auf Gitter mit beliebigem Rang ist die im Jahre 1982 von Lenstra, Lenstra, Lovasz vorgeschlagene L3-Reduktion einer Gitterbasis, deren Laufzeit polynomiell in der Bitlänge der Eingabe ist. L3-reduzierte Gitterbasen approximieren die sukzessiven Minima bis auf einen (im Rang des Gitters) exponentiellen Faktor. Die vorliegende Arbeit besteht aus zwei Teilen. Im ersten Teil (Kapitel 1-6) wird ein neues Reduktionskonzept von M. Seysen aus der Arbeit "A Measure for the Non-Orthogonality of a Lattice Basis" behandelt und im zweiten Teil (Kapitel 7) ein aktuelles Ergebnis von M. Ajtai über die Faktorisierung ganzer Zahlen aus "The Shortest Vector Problem in L2 is NP-hard for Randomized Reductions"[2]. Seysen führte in [13] zu einer gegebenen Gitterbasis b1, · · · , bn die Größe ¾(A) ein, die nur von den Einträgen der zugehörigen Gram-Matrix A = [b1, · · · , bn]T · [b1, · · · , bn] und der Inversen A 1 abhängt. Sie hat die Eigenschaft, daß für jede Gitterbasis b1, · · · , bn mit Gram-Matrix A gilt, daß ¾(A) ¸ 1, wobei die Gleichheit genau dann gilt, wenn b1, · · · , bn orthogonal ist. Aus dieser Defintion ergibt sich folgender Reduktionsbegriff: Eine Gitterbasis b1, · · · , bn mit Gram-Matrix A heißt genau dann ¿ -reduziert, wenn ¾(A) minimal für alle Basen des Gitters ist. Der wesentliche Unterschied der ¿-Reduktion zur L3-Reduktion ist, daß die Größe ¾(A) unabhängig von der Reihenfolge der Basisvektoren ist, so daß eine ¿ -reduzierte Gitterbasis bei beliebiger Permutation der Basisvektoren ¿ -reduziert bleibt. Die ¿-Reduktion reduziert also im Gegensatz zur L3-Reduktion die Basisvektoren gleichmäßig. Seysen zeigte, daß man zu jedem Gitter vom Rang n eine Gitterbasis mit Gram-Matrix A findet, so daß ¾(A) durch eO((ln n)2) beschränkt ist. Daraus läßt sich ableiten, daß ¿ -reduzierte Gitterbasen eines Gitters vom Rang n die sukzessiven Minima bis auf den Faktor eO((ln n)2) approximieren. Da es sich bei der ¿-Reduktion um einen sehr starken Reduktionsbegriff handelt, für den es schwer ist, einen effizienten Algorithmus zu finden, definiert man folgenden schwächeren Reduktionsbegriff: b1, · · · , bn heißt genau dann ¿2-reduziert, wenn keine Basistransformation der Form bj := bj +k · bi mit 1 · i 6= j · n und k 2 ZZ die Gr¨oße ¾(A) erniedrigt. Für n = 2 entspricht die ¿-Reduktion sowohl der ¿2- Reduktion als auch der Gauß-Reduktion. Für die ¿2-Reduktion findet man einen effizienten Algorithmus. Wendet man diesen Algorithmus auf Rucksackprobleme an, so ergibt sich, daß durch einen Algorithmus, bestehend aus ¿2-Reduktion und anschließender L3-Reduktion, bei großer Dichte und bei kleiner Dimension wesentlich mehr Rucksackprobleme gelöst werden als durch den L3-Algorithmus. Die Faktorisierung großer ganzer Zahlen ist ein fundamentales Problem mit großer kryptographischer Bedeutung. Schnorr stellte in [11] erstmals einen Zusammenhang zwischen Gitterbasenreduktion und Faktorisierung her, indem er das Faktorisieren ganzer Zahlen auf das "nächste Gittervektorproblem in der Eins-Norm" zurückführte. Adleman führte in [1] das Faktorisieren ganzer Zahlen sogar auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" zurück, allerdings unter zahlentheoretischen Annahmen. In [2] stellte Ajtai ein neues Ergebnis vor, in dem er das Faktorisieren ganzer Zahlen auf das "kürzeste Gittervektorproblem in der Euklidischen Norm" ohne zusätzliche Annahmen zurückführte.
Gleichgewichte auf Überschussmärkten : Theorie und Anwendbarkeit auf die Regelenergiezone der RWE
(2003)
Diese Version entspricht im wesentlichen der begutachteten Version bis auf die Kürzung von Satz 3.3.1 um einen für den Rest unbedeutenden Teil. Das Ziel folgender Arbeit ist es, mit einem intuitiven Ansatz eine spezielle Wettbewerbsform zweier interagierender Märkte zu modellieren und anschließend zu analysieren. Abschließend werden die theoretischen Ergebnisse mit den Beobachtungen an einem existierenden Markt - dem deutschen Energiemarkt - verglichen. In dieser behandelten Wettbewerbsform wird ein nicht lagerbares Gut an zwei aneinander gekoppelten Märkten gehandelt. Während Handel und Preisfindung am ersten Markt den üblichen Gepflogenheiten folgen, müssen alle Teilnehmer sämtliche Güter, welche nicht unmittelbar nach Lieferung verbraucht werden, am zweiten Marktplatz (dem Überschussmarkt) gegen ein gewisses Entgelt zur Verfügung stellen. Alle Teilnehmer, welche nicht genügend Güter am ersten Markt geordert haben, werden auf dem Überschussmarkt zu einem gewissen Preis mit der noch benötigten Menge versorgt. Einem Marketmaker auf dem zweiten Marktplatz fällt die Aufgabe zu, einen Preis festzustellen, zu dem diejenigen entschädigt werden, welche ihre Überschüsse zur Verfügung stellen müssen bzw. den diejenigen zu bezahlen haben, deren Gütermangel ausgeglichen wird. Weiterhin stellt dieser sicher, dass zu jedem Zeitpunkt genügend Güter vorhanden sind, so dass der Bedarf aller Teilnehmer zu jedem Zeitpunkt sichergestellt ist. Ziel ist es nun herauszufinden, welche gewinnmaximierenden Einkaufsstrategien die Marktteilnehmer verfolgen sollten und welche Konsequenzen sich daraus auf den deutschen Energiemarkt ableiten lassen.
Große Stammbäume
(2003)
Sei T ein kritischer oder subkritischer Galton-Watson Stammbaum (GW-Baum) mit einer Kinderzahlverteilung endlicher oder unendlicher Varianz. Wir sind an der Struktur von T , bedingt darauf, dass T "groß" ist, interessiert. Der klassische sowie naheliegende Zugang ist, T auf eine große Gesamtgröße oder eine große Höhe zu bedingen. In dieser Arbeit werden drei, zum GW-Baum eng verwandte Typen von zufälligen Stammbäumen vorgestellt, deren Analyse aufschlussreiche Einsichten über große GW-Stammbäume liefert. Zur Untersuchung dieser auf große Gesamtgröße bedingten Stammbäume schlagen wir eine Familie von zufälligen, größenverzerrten Bäumen vor, deren auf Größe bedingte Verteilung mit der des, auf gegebener Größe bedingten, Baumes T übereinstimmt. Diese zufälligen Stammbäume besitzen eine einfache probabilistische Struktur, wenn man sie entlang der Ahnenlinien von rein zufällig gezogenen Knoten zerlegt. Die Verwandschaftsstruktur des von den gezogenen Knoten und der Wurzel aufgespannten Teilbaumes hängt im wesentlichen von dem asymptotischen Verhalten der Kinderzahlverteilung ab. Während bei endlicher Varianz diese Teilbäume asymptotisch binär sind, können bei unendlicher Varianz im Limes auch andere Formen auftreten. Wir zeigen, dass diese Teilbäume GW-Bäume bedingt auf ihre Gesamtblätterzahl sind. Mit Hilfe der Zerlegung entlang der Ahnenlinien erhalten wir zudem einen Grenzwertsatz für die reskalierte Gesamtgröße des Baumes mit einer Gamma-Verteilung als Limes. Die Analyse großer Bäume führen wir unter dem Aspekt des Größenverzerrens fort, indem wir eine weitere Familie zufälliger Bäume vorschlagen. Diese erhalten wir durch Größenverzerrung in der n-ten Generationsgröße. Wir werden sehen, dass der dadurch gewonnene zufällige Stammbaum eine ähnliche probabilistische Struktur wie der in der Gesamtgröße größenverzerrte Baum besitzt. Hier beweisen wir mit einfachen Überlegungen Aussagen über die Generation des jüngsten gemeinsamen Vorfahren (MRCA) von uniform aus Generation n gezogenen Knoten, sowie die Struktur des von diesen Knoten aufgespannten Skeletts. Schließlich betrachten wir die in [15] vorgestellte probabilistische Zerlegung des auf Mindesthöhe n bedingten GW-Baumes. Damit werden wir klassische Sätze über die Höhe des MRCA und die Grenzverteilung der reskalierten n-ten Generationsgröße für den Fall einer Kinderzahlverteilung mit unendlicher Varianz auf alternativem und anschaulichem Weg beweisen. Zudem erhalten wir eine Grenzverteilung für die Anzahl der Kinder des MRCA.
Die vorliegende Arbeit beschäftigt sich mit Gruppen von quasi-Automorphismen von Graphen, genauer gesagt, von gefärbten Graphen. Ein gefärbter Graph ist ein Graph, dessen Kantenmenge in eine disjunkte Vereinigung von Mengen von Kanten einer bestimmten Farbe zerlegt ist. Ein Automorphismus eines solchen Graphen muss insbesondere die Farben der Kanten respektieren. Ein quasi-Automorphismus eines solchen Graphen ist eine Bijektion der Eckenmenge auf sich selbst, die nur endlich oft die Autmomorphismeneigenschaft verletzt, d.h. nur endlich viele Kanten nicht respektiert und nur endlich viele Kanten neu entstehen läßt. Die Menge der quasi-Automorphismen eines Graphen bildet eine Untergruppe in der Gruppe der Permutationen der Eckenmenge. Eine Auswahl interessanter Beispiele solcher Gruppen und manche ihrer Eigenschaften sind neben einigen grundsätzlichen Überlegungen Thema dieser Arbeit. Die erste Klasse von Graphen, die wir untersuchen, sind Cayley-Graphen (endlich erzeugter) Gruppen. Dabei werden wir zeigen, dass die quasi-Automorphismengruppe eines Cayley-Graphen nicht von dem (endlichen) Erzeugendensystem abhängt. Wir werden zeigen, dass für eine einendige Gruppe $G$ die quasi-Automorphismengruppe des Cayley-Graphen stets als semidirektes Produkt der finitären Permutationen von $G$ und der Gruppe $G$ selbst zerfällt. In der Klasse der mehrendigen Gruppen gibt es genau $2$ Gruppen für die das ebenfalls gilt, nämlich die Gruppe der ganzen Zahlen ...Z und die unendliche Diedergruppe $D_infty$. In allen anderen Gruppen ist das oben erwähnte semidirekte Produkt stets eine echte Untergruppe. Trotzdem werden wir im Ausblick eine Konstruktion angeben, die für eine gegebene Gruppe $G$ einen Graphen $Gamma$ liefert, dessen quasi-Automorphismengruppe als semidirektes Produkt von $S_Gamma$ -- so bezeichnen wir die Gruppe der finitären Permutationen der Ecken von $Gamma$ -- und $G$ zerfällt. Des Weiteren werden wir die quasi-Automorphismengruppe des ebenen binären Wurzelbaumes betrachten. Wir werden zeigen, dass diese eine Erweiterung von (Richard) Thompsons Gruppe VV durch die Gruppe der finitären Permutationen ist, eine Präsentierung entwickeln und die Endlichkeitseigenschaften dieser Gruppe und einiger Untergruppen beleuchten. Insbesondere werden wir einen Zellkomplex konstruieren, auf dem die Gruppe der quasi-ordnungserhaltenden quasi-Automorphismen, welche das Urbild der Untergruppe FF von VV unter der kanonischen Projektion ist, mit endlichen Stabilisatoren operiert. Diese Operation erfüllt dabei die Bedingungen, die nötig sind, um mit Hilfe von Browns Kriterium nachzuweisen, dass die Gruppe vom Typ FPunendlich ist. Das co-Wort-Problem einer Gruppe $G$ bezüglich eines unter Inversion abgeschlossenen Erzeugendensystems $X$ ist die Sprache aller Worte aus dem freien Monoid $X^*$, die unter der kanonischen Projektion auf ein Element ungleich der Identität in $G$ abgebildet werden. Wir werden zeigen, dass das co-Wort-Problem der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes eine kontext-freie Sprache bildet. Sei $mathop{coCF}$ die Klasse der Gruppen mit kontextfreiem co-Wort-Problem. Diese Klasse ist abgeschlossen bezüglich Untergruppenbildung und alle Gruppen, deren Zugehörigkeit zu $mathop{coCF}$ bisher nachgewiesen wurde, sind Unterguppen der quasi-Automorphismengruppe des ebenen binären Wurzelbaumes. Die $n$-strahligen Houghton-Gruppen erweisen sich als quasi-Automorphismengruppen von Sterngraphen, d.h. von Graphen, die disjunkte Vereinigungen von $n$ Strahlen verschiedener Farben sind. Wir werden uns mit geometrischen Phänomenen der Cayley-Graphen dieser Gruppen beschäftigen. Insbesondere werden wir nachweisen, dass die $2$-strahlige Houghton-Gruppe Houn[2] beliebig tiefe Sackgassen besitzt. Eine Sackgasse der Tiefe $k$ in einem Cayley-Graphen ist ein Element, dessen Abstand zur Identität mindestens so groß ist, wie der Abstand zur Identität aller Elemente im $k$-Ball um das Element. Sogar in einem stärkeren Sinne, der in dieser Arbeit definiert wird, ist die Tiefe der Sackgassen unbeschränkt. Um dies und verwandte Fragen besser behandlen zu können, entwickeln wir Modelle, die eine Beschreibung der Cayley-Graphen von Houn[n] ermöglichen. Im abschließenden Ausblick thematisieren wir einige Ansätze, in denen wir interessante Anwendungen von quasi-Automorphismengruppen sehen.
Funktionen beschränkter mittlerer Oszillation wurden von F. John und L. Nirenberg in ihrer Arbeit von 1961 eingeführt. Das Konzept der beschränkten mittleren Oszillation findet erste Verwendung beim Beweis der Harnackschen Ungleichung für elliptische partielle Differentialgleichungen durch Moser. In dieser Arbeit wird die Idee der beschränkten mittleren Oszillation auf harmonische Räume (X,H) übertragen. Erstmals wurde dieses Konzept von H. Leutwiler in einem Artikel für allgemeine harmonische Räume entwickelt. Da die Mehrzahl der Ergebnisse in Leutwilers Arbeit nur für Brelotsche Räume oder sogar nur für die Laplacegleichung auf der oberen Halbebene gezeigt werden konnten, sind diese zum Beispiel nicht auf harmonische Räume anwendbar, die durch einen parabolischen Differentialoperator, wie die klassische Wärmeleitungsgleichung, erzeugt wurden. Ziel dieser Arbeit ist es nun die Theorie der harmonischen Funktionen beschränkter mittlerer Oszillation für allgemeine harmonische Räume zu entwickeln und unter anderem die Leutwilerschen Resultate zu beweisen. Naturgemäß lassen sich die Beweise aus Leutwilers Arbeit im Allgemeinen nicht einfach übertragen. Vielmehr mußten zum Teil neue Beweisideen und Methoden gefunden werden. Insbesondere wird konsequent von Bezugsmaßen Gebrauch gemacht, die eine allgemeine Harnacksche Ungleichung für diesen Rahmen zur Verfügung stellen. Ausgehend von Resultaten von T. Lyons kann im zweiten Kapitel eine Charakterisierung des Raumes BMO(X) gezeigt werden, wie sie bisher nur im klassischen Fall bekannt war. Aufbauend auf eine Arbeit von Bliedtner und Loeb wird im dritten Kapitel zuerst eine abstrakte Integraldarstellung quasibeschränkter Funktionen hergeleitet, die in Theorem 3.1.9 ihren Niederschlag findet. Dieses Theorem erlaubt eine Darstellung der kleinsten harmonischen Majorante gewisser subharmonischer Funktionen in Theorem 3.1.15. Ausgehend von diesen Resultaten werden schließlich in Theorem 3.2.2 und Korollar 3.2.3 Charakterisierungen harmonischer Funktionen beschränkter mittlerer Oszillation durch ihr Randverhalten erzielt, wie sie bisher nur im klassischen Fall der Laplacegleichung auf der oberen Halbebene in einer späteren Arbeit von Leutwiler gezeigt werden konnten. Im vierten Kapitel werden die harmonischen Räume (X,H) der Laplace- und Wärmeleitungsgleichung als grundlegende Beispiele betrachtet. Im fünften Kapitel wird die Vollständigkeit gewisser Teilmengen des Raumes (BMO(X)/R) untersucht. In Theorem 5.1.10 wird durch Modifikation der Norm gezeigt, daß dieser so modifizierte Raum ein Banachraum ist, allerdings zu dem Preis, daß sämtliche Funktionen in diesem Raum beschränkt sind. Aus Theorem 5.2.4 ergibt sich als Korollar 5.2.6 ein neuer Beweis der Tatsache, daß im Spezialfall Brelotscher harmonischer Räume der Raum (BMO(X)/R) ein Banachraum ist. Schließlich zeigt Theorem 5.2.12, daß gewisse Teilmengen von (BMO(X)/R) vollständig bezüglich der BMO-Norm sind, ohne daß man dabei zusätzliche Bedingungen (wie etwa Brelotscher Raum) an (X,H) stellen muß.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
In dieser Arbeit werden Darstellungen der Artinschen Zopfgruppen als Gruppen von Automorphismen der Homologie iterativ konstruierter äquivarianter Kettenkomplexe betrachtet. Es werden azyklische Komplexe freier Moduln bzw. freie Auflösungen der ganzen Zahlen für nichtpermutierte Artinsche Zopfgruppen konstruiert, die als iterierte semidirekte Produkte freier Gruppen darstellbar sind. Als Tensorprodukte der freien Auflösungen mit Moduln zu den fraglichen iterierten semidirekten Produkten freier Gruppen erhält man äquivariante Komplexe, deren von Eigenschaften der Koeffizientenmoduln abhängige Homologiegruppen bestimmt werden. Diese Homologiegruppen erlauben Automorphismendarstellungen der (permutierten) Artinschen Zopfgruppe, die gewissermaßen die Artinschen Darstellungen als Automorphismengruppen freier Gruppen iterieren und linearisieren. Insbesondere werden Darstellungen gewonnen, die die bekannten Burau- und Gassner-Darstellungen der Zopfgruppen verallgemeinern und die als Monodromiegruppen verallgemeinerter hypergeometrischer Integrale interpretiert werden können.
Wir behandeln Kettenbruchentwicklungen in beliebiger Dimension. Wir geben einen Kettenbruchalgorithmus an, der für beliebige Dimension n simultane diophantische Approximationen berechnet, die bis auf den Faktor 2 exp (n+2)/4 optimal sind. Für einen reellen Eingabevektor x := (x1,...,X n-1, 1) berechnet der Algorithmus eine Folge ganzzahliger Vektoren ....., so daß für i =1, ...., n-1 : | q exp (k) xi -pi exp (k)| <= 2 exp (n+2)/4 sqrt (1 + xi exp 2) / q exp (1/n-1). Nach Sätzen von Dirichlet und Borel ist die Schranke optimal in dem Sinne, als daß der Exponent 1/(n-1) im allgemeinen nicht erhöht werden kann. Der Algorithmus konstruiert eine Folge von Gitterbasen des Zn, welche die Gerade x R approximieren. Für gegebenes E > 0 findet der Algorithmus entweder eine Relation zu x, das heißt einen ganzzahligen zu x orthogonalen Vektor (ungleich Null), mit euklidischer Länge kleiner oder gleich E exp -1, oder er schließt Relationen zu x mit euklidischer Länge kleiner als E exp -1 aus. Der Algorithmus führt in der Dimension n und |log E| polynomial viele arithmetische Operationen auf rellen Zahlen in exakter Arithmetik aus. Für rationale Eingaben x := (p1, ....., pn)/pn, E>0 mit p1,.....,pn Teil von Z besitzt der Algorithmus polynomiale Bitkomplexität in O........ Eine Variante dieses Algorithmus konstruiert für Eingabevektoren x einen (von x nicht notwendigerweise verschiedenen) Nahebeipunkt x' zu x und eine kurze Relation zu x'. Im Falle x<>x können wir die Existenz von Relationen kleiner als (2E)exp -1 für Punkte in einer kleinen offenen Umgebung um x' ausschließen. Wir erhalten in diesem Sinne eine stetige untere Schranke für die Länge der kürzesten Relation zu Punkten in dieser Umgebung. Die für x' berechnete Relation ist bis auf einen in der Dimension n exponentiellen Faktor kürzeste Relation für x'. Zur Implementierung des Kettenbruchalgorithmus stellen wir ein numerisch stabiles Verfahren vor und berichten über experimentelle Ergebnisse. Wir geben untere Schranken für die Approximierbarkeit kürzester Relationen in der Maximum-Norm und minimaler diophantischer Approximationen an: Unter der Annahme, daß die Klasse NP nicht in der deterministischen Zeitklasse O(n exp poly log n) enthalten ist, zeigen wir: Es existiert kein Algorithmus, der für rationale Eingabevektoren x polynomial in der Bitlänge bin(x) von x ist und die in der Maximum-Norm kürzeste Relation bis auf einen Faktor 2 exp (log 0.5 - zeta bin(x)) approximiert. Dabei ist zeta eine beliebig kleine positive Konstante. Wir übertragen dieses Resultat auf das Problem, zu gegebenen rationalen Zahlen x1,....,xn-1 und einem rationalen E > 0 gute simultane diophantische Approximationen zu finden, das heißt rationale Zahlen p1/q,...; (p n-1/)q mit möglichst kleinem Hauptnenner q zu konstruieren, so daß max 1 <=i <= n-1 |q xi - pi| <= E. Wir zeigen unter obiger Annahme, daß kein Algorithmus existiert, der für gegebene rationale Zahlen x1,........,x n-1 und natürlicher Zahl N polynomial-Zeit in der Bitlänge bin(x) von x ist und simultane diophantische Approximationen berechnet, so daß max 1 <=i <= n-1 |q xi - pi| für q gehört zu [1, N] bis auf den Faktor 2 exp (log 0.5 - zeta bin(x)) minimal ist. Hierbei ist zeta wieder eine beliebig kleine positive Konstante.
Es wird eine Einführung in den Satz von Belyi und Grothendiecks Dessins d'enfants gegeben, hier Kinderzeichnungen genannt. Dieses Arbeitsgebiet ist in den letzten zwanzig Jahren entstanden und weist viele reizvolle Querverbindungen auf von der inversen Galoistheorie über die Teichm llerräume bis hin zur Mathematischen Physik. Das Schwergewicht des folgenden Beitrags liegt in den Beziehungen zu den Fuchsschen Gruppen und der Uniformisierungstheorie: Kinderzeichnungen bieten die Möglichkeit, für arithmetisch interessante Riemannsche Flächen - die als algebraische Kurven über Zahlkörpern definiert sind - Überlagerungsgruppen explizit zu beschreiben und umgekehrt aus gewissen Typen von Überlagerungsgruppen Kurvengleichungen zu gewinnen. Was hier aufgeschrieben ist, behandelt eigentlich nur bekanntes Material, gelegentlich mit neuen Beweisvarianten und Beispielen. Da aber noch keine zusammenfassende Einführung in das Thema existiert, hoffe ich, dass es als Vorlage für ein Seminar oder eine fortgeschrittene Vorlesung nützlich sein mag.
Komplexität von Gitterproblemen : Nicht-Approximierbarkeit und Grenzen der Nicht-Approximierbarkeit
(2000)
Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P <> NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO exp(1/log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n/ sqrt(log n) unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q >= N, so daß maxi minp2Z |q alpha i - p| minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen. Ein Gitter vom Rang n ist die Menge der ganzzahligen Linerkombinationen von n linear unabhängigen Vektoren im Rm. Unter der Annahme P 6= NP beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der eine kürzeste Gitterbasis bis auf einen Faktor nO(1= log log n) berechnet, wobei die Länge einer Menge von Vektoren durch die maximale Euklidische Länge der Vektoren definiert ist. Weiter zeigen wir, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=plog n unter plausiblen Annahmen nicht möglich ist. Ein simultaner Diophantischer Best Approximations Nenner für reelle Zahlen alpha1, .... , alpha n und Hauptnennerschranke N ist eine natürliche Zahl q mit 1 <= q <= N, so daß maxi ...... minimal ist. Unter der Annahme, daß die Klasse NP keine fast-polynomiellen Algorithmen besitzt, beweisen wir, daß kein Polynomialzeit-Algorithmus existiert, der für gegebene rationale Zahlen alpha1,......, alphan und eine Hauptnennerschranke N einen Nenner ~q mit 1 <= ~q <= f(n)N berechnet, so daß ~q bis auf einen Faktor f(n) = nO(1= log0:5+epsilon n) ein Best Approximations Nenner ist, wobei epsilon > 0 eine beliebige Konstante ist. Wir zeigen, daß eine Verbesserung dieses Resultates bis hin zu einem Faktor n=log n unter plausiblen Annahmen nicht mölich ist. Wir untersuchen die Konsequenzen dieser Resultate zur Konstruktion von im Durchschnitt schwierigen Gitterproblemen.
Im Zentrum dieser Arbeit steht die Operation der Gruppe Gamma:=SL_n(Z[1/m]) auf dem symmetrischen Raum M:=SL_n(R)/SO(n). Allgemeiner betrachten wir die Operation rho:Gamma->Isom(M) einer S-arithmetischen algebraischen Gruppe durch Isometrien auf dem zugehörigen symmetrischen Raum M. Die symmetrischen Räume sind Riemannsche Mannigfaltigkeiten mit nichtpositiver Krümmung und daher insbesondere CAT(0)-Räume. R. Bieri und R. Geoghegan haben für die Operation rho:G->Isom(M) einer abstrakten Gruppe G auf einem CAT(0)-Raum M die geometrischen Invarianten Sigma^k(rho) als Teilmenge des Randes von M eingeführt (vgl. [Robert Bieri and Ross Geoghegan, Connectivity properties of group actions on non-positively curved spaces, vol. 161, Memoirs of the AMS, no. 765, American Mathematical Society, 2003]). Die Fokusierung, die durch die geometrischen Invarianten erreicht wird, hat sich in vielen Fällen bewährt, in denen eine Operation durch Translationen auf dem euklidischen Raum zur Verfügung steht. Über die Invarianten von anderen CAT(0)-Operationen ist noch wenig bekannt. In der vorliegenden Arbeit berechnen wir nun die geometrischen Invarianten Sigma^k(rho) für die oben erwähnte Operation rho der S-arithmetischen Gruppe Gamma auf dem zugehörigen symmetrischen Raum M. Wir erhalten für die Gruppe SL_n(Z[1/m]) die folgende Invariante: Sigma^k(rho) ist der ganze Rand von M, falls k kleiner als s(n-1) ist; Sigma^k(rho) ist die Menge aller Randpunkte e von M, die nicht im Rand eines rational definierten flachen Unterraum von M liegen, falls k größer oder gleich s(n-1) ist. Hierbei ist s die Anzahl der verschiedenen Primteiler von m. Die obigen Resultate sind eine Verallgemeinerung derer in [Robert Bieri and Ross Geoghegan, Controlled Connectivity of SL_2(Z[1/m]), Geometriae Dedicata 99 (2003), 137--166]. Der Beweis, den wir geben, besteht aus einer Vereinfachung des Beweises von Bieri und Geoghegan, die dann auf die allgemeinere Situation angepasst werden konnte. Ein interessanter Aspekt ergibt sich, wenn wir für eine Operation rho auf M die Zahlen k betrachten, für die gilt: (*) Sigma^k(rho) ist der ganze Rand von M. Operiert die Gruppe Gamma mit diskreten Bahnen, dann ist (*) äquivalent zur Eigenschaft, daß die Punktstabilisatoren Gamma_a, für a aus M, vom Typ F_k sind. Die Eigenschaft (*) ist auch von Interesse für S-arithmetische Untergruppen einer linearen algebraischen Gruppe über einem Funktionenkörper. Wir zeigen, daß es hier eine naheliegende Operation rho' auf einem Bruhat-Tits Gebäude M' gibt, so daß Gamma' ein Punktstabilisator und damit die Eigenschaft (*) mit der Eigenschaft "Gamma' ist vom Typ F_k" zusammenfällt. Im Zahlkörperfall sind die Verhältnisse ganz anders. Unsere S-arithmetischen Gruppen operieren auf dem symmetrischen Raum M nicht mit diskreten Bahnen und sind durchwegs vom Typ F_k für alle k. Dagegen erlaubt unser Hauptresultat die Bestimmung der Zahlen k mit der Eigenschaft (*) und zeigt eine interessante Abhängigkeit von s=|S| und dem Rang r der algebraischen Gruppen (rho erfüllt (*) <=> k<rs). Das Hauptresultat wird außerdem nicht nur für SL_n(Q), sondern allgemeiner für Chevalley-Guppen über Q oder Q(i) gezeigt, so daß wir damit für eine Reihe von klassischen CAT(0)-Operationen die Invarianten Sigma^k(rho) bestimmt haben.
Für balancierte, irreduzible Pólya-Urnen-Modelle sind Grenzwertsätze für die normalisierte Anzahl von Kugeln einer Farbe bekannt. Für eine spezielle Urne, deren Dynamik mit "Randomised-Play-the-Winner Rule" bezeichnet wird, werden im Rahmen der bekannten Grenzwertsätze Konvergenzraten in Wasserstein-Metriken und in der Kolmogorov-Metrik im Falle eines nicht-normalverteilten Grenzwerts hergeleitet.
Die zentrale Frage dieser Studie lautet: Wann ist eine stetige Funktion auf einem kompakten Raum, welche Werte in einem lokalkonvexen Raum annimmt, (Pettis-)integrierbar?
Im ersten Kapitel wird definiert, was konvexe Kompaktheit ist. Es wird das Pettis-Integral vorgestellt, und der Zusammenhang zwischen der konvexen Kompaktheitseigenschaft (oder ccp) und dem Pettis-Integral wird erläutert. Außerdem stellt dieses Kapitel dar, inwiefern die ccp aus stärkeren Eigenschaften lokalkonvexer Räume folgt oder schwächere impliziert. Das zweite Kapitel beweist hauptsächlich den Satz von Krein, der einen Zusammenhang zwischen Vollständigkeit unter der Mackey-Topologie und der ccp unter der schwachen Topologie herstellt. Das dritte Kapitel erläutert mit Gegenbeispielen, inwiefern die in Kapitel 1 vorgestellten Vollständigkeitseigenschaften lokalkonvexer Räume notwendig gegeneinander abgegrenzt sind. Das vierte Kapitel stellt zuerst das Bochner-Integral und das starke OperatorIntegral vor, um dann die starke konvexe Kompaktheitseigenschaft oder sccp einzufuhren, eine Eigenschaft, welche der ccp verwandt ist. Es wird fur einen Raum beispielhaft bewiesen, daß er diese Eigenschaft besitzt. Zuletzt wird der Zusammenhang von sccp und ccp ausfuhrlicher dargestellt.
Diese Arbeit wendet sich an Leser, denen die Grundlagen der Theorie lokalkonvexer Räume schon vertraut sind. Insbesondere ist Vertrautheit mit den Begriffen tonneliert, ultrabornologisch, bornologisch, polare Topologie unterstellt. Man findet eine kurze und einfach verständliche Einfuhrung im Werk [RR]. Alle über diese Grundlagen hinausgehenden Resultate werden in dieser Arbeit mit Beweis ausgefuhrt, oder es wird mit Angabe der Fundstelle auf die Literatur verwiesen.
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
Rezension zu: George G. Szpiro : Mathematik für Sonntagmorgen : 50 Geschichten aus Mathematik und Wissenschaft, NZZ Verlag, Zürich 2006, ISBN 978-3-03823-353-4 ; 240 Seiten, 26 Euro/38 CHF George G. Szpiro : Mathematik für Sonntagnachmittag : Weitere 50 Geschichten aus Mathematik und Wissenschaft, NZZ Verlag, Zürich 2006, ISBN 978-3-03823-225-4 ; 236 Seiten, 26 Euro/38 CHF
Die anaerobe Fermentation beschreibt den Abbau organischen Materials unter Ausschluss von Sauerstoff und setzt sich aus vier Prozessphasen (Hydrolyse, Acidogenese, Acetogenese und Methanogenese) zusammen. Im Rahmen dieser Arbeit konnte die Aufteilung dieser vier Prozessphasen auf die beiden Stufen eines zweistufigen zweiphasigen Biogas-Reaktors genau bestimmt werden. Die Aufteilung ist von entscheidender Bedeutung für zukünftige Arbeiten, da dadurch genau festgelegt werden kann, welche Stoffe bei den Messungen und bei der Modellierung berücksichtigt werden müssen.
Im Jahre 2002 wurde von der IWA Taskgroup das ADM1-Modell, welches alle vier Prozessphasen der anaeroben Fermentation berücksichtigt, veröffentlicht. In der vorliegenden Arbeit wird ein räumlich aufgelöstes Modell für die anaerobe Fermentation erarbeitet, in dem das ADM1-Modell mit einem Strömungsmodell gekoppelt wird. Anschließend wird ein reduziertes Simulationsmodell für acetoklastische Methanogenese in einem zweistufigen zweiphasigen Biogasreaktor erstellt. Anhand von Messdaten wird gezeigt, dass der Abbau von Essigsäure zu Methan innerhalb des Reaktors durch das Simulationsmodell gut wiedergegeben werden kann.
Anschließend wird das validierte Modell verwendet um Regeln für eine optimale Steuerung des Reaktors herzuleiten und weiterhin wird mit Hilfe der lokalen Methanproduktion die Effektivität des Reaktors bestimmt. Die erlangten Informationen können verwendet werden, um den Biogas-Reaktor zu optimieren.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Optimierung von Phasen- und Ratenparametern in einem stochastischen Modell neuronaler Feueraktivität
(2014)
In unserem Gehirn wird Information von Neuronen durch die Emission von Spikes repräsentiert. Als wichtige Signalkomponenten werden hierbei die Rate (Anzahl Spikes), die Phase (zeitliche Verschiebung der Spikes) und synchrone Oszillationen (rhythmische Entladungen der Neuronen am selben Zyklus) diskutiert.
In dieser Arbeit wird untersucht, wie Rate und Phase für eine optimale Detektion miteinander kombiniert werden und abhängig vom gewählten Parameterbereich wird der Beitrag der Phase quantifiziert.
Dies wird anhand eines stochastischen Spiketrain-Modell untersucht, das hohe Ähnlichkeiten zu empirischen Spiketrains zeigt und die drei genannten Signalkomponenten beinhaltet. Das ELO-Modell („exponential lockig to a free oscillator“) ist in zwei Prozessstufen unterteilt: Im Hintergrund steht ein globaler Oszillationsprozess, der unabhängige und normal-verteilte Intervallabschnitte hervorbringt (Oszillation). An den Intervallgrenzen starten unabhängig, inhomogene Poisson-Prozesse (Synchronizität) mit exponentiell abnehmender Feuerrate, die durch eine stimulusspezifische Rate und Phase festgelegt ist.
Neben einer analytischen Bestimmung der optimalen Parameter im Falle reiner Raten- bzw. Phasencodierung, wird die gemeinsame Codierung anhand von Simulationsstudien analysiert.