Refine
Year of publication
- 2008 (21) (remove)
Document Type
- Working Paper (10)
- Article (5)
- Doctoral Thesis (2)
- Bachelor Thesis (1)
- Diploma Thesis (1)
- diplomthesis (1)
- Preprint (1)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Lambda-Kalkül (5)
- Operationale Semantik (5)
- Programmiersprache (5)
- lambda calculus (3)
- nondeterminism (2)
- programming languages (2)
- semantics (2)
- BFS (1)
- Claude Elwood (1)
- Dynamic Graph Algorithms (1)
Institute
- Informatik (21) (remove)
We present a measurement of e+e− pair production in central PbAu collisions at 158A GeV/c. As reported earlier, a significant excess of the e+e− pair yield over the expectation from hadron decays is observed. The improved mass resolution of the present data set, recorded with the upgraded CERES experiment at the CERN-SPS, allows for a comparison of the data with different theoretical approaches. The data clearly favor a substantial in-medium broadening of the ρ spectral function over a density-dependent shift of the ρ pole mass. The in-medium broadening model implies that baryon induced interactions are the key mechanism to the observed modifications of the ρ meson at SPS energy.
Im Rahmen dieser Bachelorarbeit wurde eine flashbasierte Anwendung zum Trainieren und Prüfen der Fähigkeit zur korrekten Interpretation von Bildinformationen entwickelt.
Den Ausgangspunkt der Entwicklung bildete eine Analyse von bisher existierenden Anwendungen am Beispiel der Radiologie. Die Analyse ergab, dass die bereits existierenden Anwendungen Interaktionen mit dem Bild in bestimmten Umfang erlauben, jedoch keine Anwendung gefunden werden konnte, bei der ein direktes Markieren von Strukturen im Bild mit z.B. einem Stift möglich ist. Ziel war es, dies zu entwickeln.
Die Entwicklung des Konzeptes begann mit einer Analyse der Anforderungen, die sich aus dem Bildmaterial in der Radiologie ergeben. Daraus wurden drei Aufgabenszenarien entwickelt: Nachfahren einer Struktur, einkreisen einer Struktur und markieren einer Struktur durch einen Stempel. Diese Aufgabenszenarien erfordern verschiedene Zeichen- und Hilfswerkzeuge. Implementiert wurden die Zeichenwerkzeuge Stift, Stempel und aufziehbarer Kreis, so wie die Hilfswerkzeuge Zoom und Helligkeitsregelung.
Für die drei Aufgabenszenarien wurden im Konzept Definitionen des Lösungsbereiches erstellt, den der Ersteller von Übungen im Flash Template an gibt. Diese drei Lösungsbereiche erfordern wiederum unterschiedliche Auswertungen und andere Verfahren zur Fehlerwertungen. Die Fehlerwertung setzt sich je nach Aufgabenszenario aus verschiedenen Verfahren zusammen.
Die anschließende Integration der Anwendung in die LernBar erfolgte über eine Integration von Schnittstellen in die Anwendung, die eine Kommunikation zwischen LernBar Player und der Anwendung erlauben. Zusätzlich wurde das Einlesen von XML Dateien ermöglicht und die Struktur einer XML Datei, zur Übergabe der nötigen Parameter, definiert. Diese XML Datei erlaubt die spätere Einbindung eines Wizards in das LernBar Studio, was im Ausblick erläutert wurde.
Die Implementierung der Anwendung beweist, dass das in dieser Bachelorarbeit aufgestellte Konzept funktioniert.
Diese Arbeit behandelt das Thema der Darstellung und der Simulation von Pflanzen mit Lindenmayer-Systemen. Zur Darstellung der aus Lindenmayer- Systemen entwickelten Strukturen wird das Programm Linde 3D entwickelt, welches dem Benutzer das Erstellen und die Simulation von Objekten unter Verwendung von deterministischen, geschachtelten, stochastischen, kontextsensitiven, umgebungssensitiven und offenen Lindenmayer-Systemen ermöglicht.
Neben der Entwicklung des Programms Linde 3D liegt ein weiterer Schwerpunkt dieser Arbeit auf der Simulation der biologischen Prozesse Vernalisation und Stratifikation. Für die Simulation dieser Prozesse werden Lindenmayer- Systeme entwickelt, welche die Grundfunktionalität der Prozesse simulieren und in Abhängigkeit dieser dreidimensionale Modelle der Pflanze erzeugen.
Das Programm Linde 3D ist so konzipiert, dass es allgemein eingesetzt werden kann. Neben dem Verständnis für die abstrakten Modelle der Lindenmayer-Systeme werden keine speziellen Kenntnisse des Anwenders vorausgesetzt. Die Eingabe der L-Systeme erfolgt entweder über die Auswahl vordefinierter Lindenmayer-Systeme und Umweltdaten oder durch Komposition von Lindenmayer-Systemen und Umweltdaten durch den Anwender. Die graphische Interpretation der Lindenmayer-Systeme erfolgt unter Verwendung des Schildkröten-Modells. Die Ausgabe des Programms Linde 3D besteht zum einen aus einer direkten Darstellung der generierten Szene im Programm und zum anderen aus der Ausgabe der Szene in Form einer oder mehrerer Dateien für den POVRay Raytracer. Die erzeugten Dateien können durch externe Programme aufbereitet und zu einer Animation zusammengefügt werden.
Die vorliegende Arbeit beginnt mit einer kurzen Einführung in das Thema der Fraktale und Lindenmayer-Systeme, sowie den nötigen Grundlagen für das Verständnis der biologischen Hintergründe. Im Anschluss werden dem Leser die notwendigen theoretischen Grundkenntnisse zu Lindenmayer-Systemen und ein Einblick in aktuelle Anwendungen und Entwicklungen vermittelt. Nach einer Beschreibung der Anforderungen, des Aufbaus und der Implementierung des Programms Linde 3D werden die erworbenen Grundkenntnisse im Bereich der Lindenmayer-Systeme und das Programm Linde 3D eingesetzt, um Schritt für Schritt Lindenmayer-Systeme für die Simulation der biologischen Prozesse Vernalisation und Stratifikation zu entwickeln. Nach der Konstruktion der L-Systeme werden die erworbenen theoretischen Grundlagen für den Bereich des Testens von Parser und Schildkröten-Modell auf Funktionalität benötigt. Im Ausblick werden Ideen für Anwendungen und Erweiterungen des Programms Linde 3D beschrieben.
In der Realität setzen sich Farben aus einzelnen Wellen zusammen, welche in Kombination mit zugehörigen Wellenlängen und Intensitäten bei Menschen den Sinneseindruck einer Farbe hervorrufen. Die Computergraphik definert Farben mit dem RGB-Modell, in dem durch 3 Grundfarben (Rot, Grün, Blau) der darstellbare Farbbereich festgelegt wird. Ein Spektrum (genauer Spectral Power Distribution, SPD) ermöglicht eine variablere, physikalisch exaktere Darstellung von Farbe, kann aber nicht einfach mit dem RGB-Modell verwendet werden. Das von der Commission Internationale de l'Eclairage definierte XYZ-Farbmodell erlaubt es mit Wellenlängen zu rechnen, und bildet die Grundlage der Beleuchtungsrechnung mit Spektren.
Farben mittels Spektren zu ermitteln ist die Paradedisziplin von Raytracern, da der Berechnungsaufwand für Echtzeitanwendungen meist zu groß ist. Die neueste Graphikkarten-Generation kann große Datenmengen effizient parallel verarbeiten, und es wurden entsprechende Ansätze gesucht, wellenlängenbasiert zu rechnen. Das hier vorgestellte System erlaubt auf Grundlage von physikalischen Formeln einzelne Intensitäten zu beeinflusen, welche in Kombination mit den Tristimulus-Werten des Menschen in dem XYZ-Farbmodell abgebildet werden können. Diese XYZ-Koordinaten können anschließend in das RGBModell transformiert werden.
Im Gegensatz zu bestehenden Systemen wird direkt mit Spektren gearbeitet und diese nicht von einer RGB-Farbe abgeleitet, so dass für bestimmte Effekte eine höhere Genauigkeit entsteht. Durch die Verwendung einer SPD ist es möglich, Interferenzeffekte an dünnen Schichten und CDs in einem Polygon-Renderer zu visualisieren. In dieser Arbeit wird eine Berechnung von mehrlagigen dünnen Schichten mit komplexen Brechungsindizes präsentiert und ein LOD-System vorgestellt, welches es ermöglicht den Berechnungsaufwand frei zu skalieren.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
We investigate methods and tools for analysing translations between programming languages with respect to observational semantics. The behaviour of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
We investigate methods and tools for analysing translations between programming languages with respect to observational semantics. The behaviour of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
This paper proves several generic variants of context lemmas and thus contributes to improving the tools for observational semantics of deterministic and non-deterministic higher-order calculi that use a small-step reduction semantics. The generic (sharing) context lemmas are provided for may- as well as two variants of must-convergence, which hold in a broad class of extended process- and extended lambda calculi, if the calculi satisfy certain natural conditions. As a guide-line, the proofs of the context lemmas are valid in call-by-need calculi, in callby-value calculi if substitution is restricted to variable-by-variable and in process calculi like variants of the π-calculus. For calculi employing beta-reduction using a call-by-name or call-by-value strategy or similar reduction rules, some iu-variants of ciu-theorems are obtained from our context lemmas. Our results reestablish several context lemmas already proved in the literature, and also provide some new context lemmas as well as some new variants of the ciu-theorem. To make the results widely applicable, we use a higher-order abstract syntax that allows untyped calculi as well as certain simple typing schemes. The approach may lead to a unifying view of higher-order calculi, reduction, and observational equality.
We present a higher-order call-by-need lambda calculus enriched with constructors, case-expressions, recursive letrec-expressions, a seq-operator for sequential evaluation and a non-deterministic operator amb that is locally bottom-avoiding. We use a small-step operational semantics in form of a single-step rewriting system that defines a (nondeterministic) normal order reduction. This strategy can be made fair by adding resources for bookkeeping. As equational theory we use contextual equivalence, i.e. terms are equal if plugged into any program context their termination behaviour is the same, where we use a combination of may- as well as must-convergence, which is appropriate for non-deterministic computations. We show that we can drop the fairness condition for equational reasoning, since the valid equations w.r.t. normal order reduction are the same as for fair normal order reduction. We evolve different proof tools for proving correctness of program transformations, in particular, a context lemma for may- as well as mustconvergence is proved, which restricts the number of contexts that need to be examined for proving contextual equivalence. In combination with so-called complete sets of commuting and forking diagrams we show that all the deterministic reduction rules and also some additional transformations preserve contextual equivalence.We also prove a standardisation theorem for fair normal order reduction. The structure of the ordering <=c a is also analysed: Ω is not a least element, and <=c already implies contextual equivalence w.r.t. may-convergence.
The dynamics of many systems are described by ordinary differential equations (ODE). Solving ODEs with standard methods (i.e. numerical integration) needs a high amount of computing time but only a small amount of storage memory. For some applications, e.g. short time weather forecast or real time robot control, long computation times are prohibitive. Is there a method which uses less computing time (but has drawbacks in other aspects, e.g. memory), so that the computation of ODEs gets faster? We will try to discuss this question for the assumption that the alternative computation method is a neural network which was trained on ODE dynamics and compare both methods using the same approximation error. This comparison is done with two different errors. First, we use the standard error that measures the difference between the approximation and the solution of the ODE which is hard to characterize. But in many cases, as for physics engines used in computer games, the shape of the approximation curve is important and not the exact values of the approximation. Therefore, we introduce a subjective error based on the Total Least Square Error (TLSE) which gives more consistent results. For the final performance comparison, we calculate the optimal resource usage for the neural network and evaluate it depending on the resolution of the interpolation points and the inter-point distance. Our conclusion gives a method to evaluate where neural nets are advantageous over numerical ODE integration and where this is not the case. Index Terms—ODE, neural nets, Euler method, approximation complexity, storage optimization.