Universitätspublikationen
Refine
Year of publication
- 2009 (608) (remove)
Document Type
- Article (178)
- Doctoral Thesis (115)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (26)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
- Magister's Thesis (7)
- diplomthesis (6)
- Periodical (5)
- Part of a Book (4)
- magisterthesis (3)
Language
- German (366)
- English (225)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (608)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (46)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (30)
- E-Finance Lab e.V. (24)
- Informatik (24)
Medium range hydrological forecasts in mesoscale catchments are only possible with the use of hydrological models driven by meteorological forecasts, which in particular contribute quantitative precipitation forecasts (QPF). QPFs are accompanied by large uncertainties, especially for longer lead times, which are propagated within the hydrometeorological model system. To deal with this limitation of predictability, a probabilistic forecasting system is tested, which is based on a hydrological-meteorological ensemble prediction system. The meteorological component of the system is the operational limited-area ensemble prediction system COSMO-LEPS that downscales the global ECMWF ensemble to a horizontal resolution of 10 km, while the hydrological component is based on the semi-distributed hydrological model PREVAH with a spatial resolution of 500 m.
Earlier studies have mostly addressed the potential benefits of hydrometeorological ensemble systems in short case studies. Here we present an analysis of hydrological ensemble hindcasts for two years (2005 and 2006). It is shown that the ensemble covers the uncertainty during different weather situations with an appropriate spread-skill relationship. The ensemble also shows advantages over a corresponding deterministic forecast, even under consideration of an artificial spread.
Two decades after the predicted “end of ideology”, we are observing a re-emphasis on party ideology under Hu Jintao. The paper looks into the reasons for and the factors shaping the re-formulation of the Chinese Communist Party’s (CCP) ideology since 2002 and assesses the progress and limits of this process. Based on the analysis of recent elite debates, it is argued that the remaking of ideology has been the consequence of perceived challenges to the legitimacy of CCP rule. Contrary to many Western commentators, who see China’s successful economic performance as the most important if not the only source of regime legitimacy, Chinese party theorists and scholars have come to regard Deng Xiaoping’s formula of performance-based legitimacy as increasingly precarious. In order to tackle the perceived “performance dilemma” of party rule, the adaptation and innovation of party ideology is regarded as a crucial measure to relegitimize CCP rule.
Trotz eines umfangreichen Angebots an Literatur und Ratgebern im Bereich des Projektmanagements scheitern auch heute noch viele IT-Projekte. Ursache sind oft Probleme im Projektteam oder Fehleinschätzungen in der Planung des Projektes und Überwachung des Projektstatus. Insbesondere durch neue Technologien und Globalisierung entstandene Arbeitsweisen wie das virtuelle Team sind davon betroffen. In dieser Arbeit wird auf die Frage eingegangen, was virtuelle Teams sind und welche Probleme die Arbeit von virtuellen Teams belastet. Dafür werden aktuell existierende Tools aus dem Bereich des Web 2.0 analysiert und aus dem Stand der angebotenen Tools vermeidbare Schwächen der Helfer herausgearbeitet. Anschließend wird ein mittels einer Anforderungsanalyse und eines Konzepts, welches neue Methoden zur Darstellung von Projektstatus und Verknüpfung mit Dokumentation und Kommunikation nutzt, das Tool „TeamVision“ erstellt, welches versucht, virtuelle Teams möglichst effizient zu managenen, Probleme schnell zu erkennen und somit die Arbeit innerhalb des Teams zu beschleunigen. Hierbei wird insbesondere das Ergebnis der Analyse benutzt, dass viele Tools einzelne Verwaltungsaufgaben getrennt durchführen. Informationen müssen vom Nutzer selbst aus den verschiedenen Grafiken, Listen oder anderen Darstellungen gesammelt und selbst assoziiert werden. Die prototypische Implementierung von TeamVision versucht den Informationsfluss beherrschbar zu machen, indem Übersichten in einem Projektbaum zusammengefasst werden, der mittels Zoomfunktionen und visueller Hilfsmitel wie Farbgebung versucht, die Informationsbeschaffung zu erleichtern.
Konzeption und Implementierung einer Kommunikation zwischen Second Life und Web 2.0 Anwendungen
(2009)
Im Rahmen dieser Arbeit haben wir ein Konzept und einen Prototypen zur Kommunikation zwischen Second Life und Web 2.0 entwickelt.
Im Rahmen dieser Diplomarbeit wird ein Konzept und ein Prototyp zur Kommunikation zwischen Second Life und Web 2.0-Anwendungen entwickelt. In der Übung zur Veranstaltung "Einführung in das Projektmanagement" wurden Meetings in Second Life abgehalten. Dabei haben die Studierenden im Rahmen der Übung Protokolle erstellt, die sie im Internet veröffentlichten. Die Protokollierung musste immer manuell durchgeführt werden und war dadurch fehleranfällig und nicht ausfallsicher. Hier entstand der Wunsch, die Protokollierung zu automatisieren und somit den administrativen Aufwand zu reduzieren.
Im Kapitel 2 werden die Grundlagen behandelt, die für das Verständnis der Arbeit notwendig sind. Hierbei werden Second Life, sowie Blog und Wiki als Repräsentanten von Web 2.0 vorgestellt. Außerdem wird eine klare Abgrenzung zwischen diesen Technologien aufgezeigt.
Die Analyse dieser Diplomarbeit umfaÿt unter anderem die verschiedenen Möglichkeiten der Übertragung der Informationen zwischen Second Life und den Web 2.0-Anwendungen.
Im Konzept ist die Gesamtarchitektur zur Kommunikation zwischen Second Life und den Web 2.0 Anwendungen enthalten. Die Hauptsystemkomponenten, die dafür notwendig sind, stellen eine Ansammlung aus Second Life Skripten, dem HTTP Supervisor und den Wiki Bot Skripten dar. Die Second Life und die Wiki Bot Skripten sind eine Ansammlung von Unterprogrammen, die jeweils auf eine Aufgabe spezialisiert sind. Die genaue Erklärung wird im Kapitel 4 Aufgrund der Unterschiede der Web 2.0 Anwendungen wurde ein Bot eingesetzt, der eine Web 2.0 Anwendung bedient. Der HTTP Supervisor dient der Vermittlung dient der Vermittlung der Daten zwischen Second Life und der Web 2.0 Anwendung. Auÿerdem speichert er die Daten in temporäre Dateien. Der Second Life Teil des Programms dient der Steuerung des gesamten Systes.
Durch die prototypische Umsetzung ist die Durchführbarkeit bewiesen, die Daten aus Second Life herauszuführen und im MediaWiki zu speichern.
Lernplattformen sind E-Learning-Systeme, deren Kernfunktionalität die Verwaltung und Verteilung von Lernmaterialien über das World Wide Web ist. In dieser Arbeit wurde untersucht, wie durch Aufzeichnung (Tracking), Auswertung und Visualisierung von Lernaktivitäten in Lernplattformen eine Verbesserung der Lernqualität erreicht werden kann. Der Ansatzpunkt dafür war, Informationen zu Lernaktivitäten in geeigneter Weise Lehrenden und Lernenden zu präsentieren, so dass diese Rückschlüsse ziehen können, um Lernprozesse eigenständig zu optimieren. Viele Lernplattformen verfolgen bereits diesen Ansatz und verfügen deshalb über entsprechende Funktionalität.
Es mussten zwei wesentliche Fragen beantwortet werden:
1. Was müssen Lernende und Lehrende über erfolgte Lernaktivitäten wissen?
2. Wie werden Lernaktivitäten in geeigneter Weise präsentiert?
Diese Fragen wurden durch Betrachtung existierender Lernplattformen (State of the Art) sowie Befragung von Experten in Form von Interviews beantwortet. Zur Beantwortung der 2. Frage wurden außerdem allgemeine Grundlagen der Auswertung und Visualisierung von Daten verwendet sowie (zu einem geringen Teil) Auswertungs- und Visualisierungsverfahren von Systemen, die keine Lernplattformen sind. Besondere Aufmerksamkeit wurde auch dem
Datenschutz gewidmet.
Beruhend auf den gewonnenen Erkenntnissen wurde dann ein Konzept für ein Auswertungs-/Visualisierungssystem entwickelt das in verschiedenen Punkten eine Verbesserung des State of the Art darstellt.
Teile des Konzepts wurden schließlich für das webbasierte Softwaresystem LernBar, das über einen Großteil der Funktionalität einer Lernplattform verfügt, prototypisch implementiert. Durch die Implementierung soll es ermöglicht werden, das Konzept im praktischen Einsatz zu evaluieren, was im Rahmen dieser Arbeit nicht möglich war.
Diese Diplomarbeit hatte das Ziel ein Konzept zu erstellen, welches es ermöglicht, interessante und weniger interessante Artikel innerhalb eines Wikis zu erkennen und diese Informationen in verständlicher Form zur Recherche visuell bereitzustellen.
Dabei sollte das Konzept möglichst offen sein, so dass theoretisch jedes Wiki an die Visualisierung hätte angebunden werden können. Hier lag bereits das erste Problem, zum Zeitpunkt der Arbeit existieren bereits mehr als 100 unterschiedliche Wikis mit unterschiedlichen Architekturen. Wegen der Unterschiede der jeweiligen Wikisysteme entschloss man sich daher zwei Konzepte zu erarbeiten, ein allgemeines, welches wie in der gestellten Zielsetzung, das Einbinden jedes Wikis ermöglicht und ein Spezialfall, der die Vorteile einer API nutzt. Der Spezialfall wurde in ähnlicher Form in einer Implementierung umgesetzt.
Zu Beginn der Diplomarbeit mussten die unterschiedlichen Möglichkeiten der Extraktion von Informationen aus einem Wiki untersucht werden. Es hatte sich ziemlich früh herausgestellt das Links, Backlinks sowie Kategorien wichtige Indikatoren zur Bewertung eines Artikels darstellen. Damit die Bewertung der Informationen nicht nur alleine auf der Struktur eines Wikis beruht, wurde ein Thesaurus zur unterstützenden Bewertung miteinbezogen. Dieser lieferte durchgehend gute Ergebnisse, wobei - wie erwartet - der Thesaurus sehr schnell an seine Grenzen gekommen war, insbesondere wenn man die Anzahl der Artikel eines großen Wikis mit der Anzahl der Wörter die im Thesaurus gespeichert sind vergleicht.
Die extrahierten und gewichteten Informationen wurden im zweiten Schritt visualisiert, dabei hatte sich der Radial-Graph als eine gute Lösung zur Darstellung der Informationen herausgestellt. Neben einem Graphen mit gewichteten Knoten wurden in der Visualisierung unterschiedliche Ansichten der extrahierten Daten bereitgestellt: eine Autorenansicht, die zum gesuchten Artikel die Autoren darstellt, eine semantische Ansicht, die Wortbeziehungen veranschaulicht sowie eine Artikelansicht, die den Nutzer neben den gewichteten Artikeln auch wie gewohnt in einer Wiki lesen lässt.
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
Rezension zu: H.-M. von Kaenel and F. Kemmers (eds.). 2009. Coins in Context I: New Perspectives for the Interpretation of Coin Finds. Studien zu Fundmünzen der Antike 23 (Mainz: von Zabern).
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
In dieser Diplomarbeit wurden zwei vom Funktionsprinzip und Aufbau her vollständig unterschiedliche Plasmabeschleuniger aufgebaut und bezüglich ihrer Eigenschaften untersucht. Der erste Aufbau ist ein Lorentzdriftbeschleuniger (LDB) mit kapazitiv erzeugten Plasmen, bei dem das Funktionsprinzip auf der Wirkung der Lorentzkraft auf bewegte Ladungsträger im Magnetfeld beruht. Der zweite Teil des Experiments stellt einen induktiven Beschleuniger (IB) dar, dessen Erzeugung und Beschleunigung von Plasmen auf Grund von Induktionskräften geschieht.
Die optischen und elektrischen Messungen von beiden Beschleunigern wurden in einem speziell konstruierten Experimentieraufbau durchgeführt. Beim Lorentzdriftbeschleuniger wurde der Einfluss der Elektrodenlänge auf den Bewegungsablauf der Plasmaentladung untersucht. Später, bei der Durchführung der Messungen mit dem induktiven Beschleuniger wurde der LDB als Schalter eingesetzt. Dabei stellte sich heraus, dass die Erosion der Elektroden aus Messing, die die Lebensdauer des Lorentzdriftbeschleunigers begrenzt, von der Stromstärke abhängt.
Als Ergebnis stellte sich heraus, dass der LDB einen einfacheren Aufbau als der IB hatte, die Ausstoßgeschwindigkeit des Plasmas war im Vergleich zum IB höher und betrug im Durchschnitt etwa 50-60 [km/s] gegenüber ≈ 21,5±6,5 [km/s] beim IB. Dagegen wurde beim IB eine größere Plasmamasse von 27 [μg] erzeugt gegenüber 2,8 [μg] beim LDB. Somit erreichte der IB eine höhere Schubkraft von ≈ 66 [N] bei einem Impuls von 0,58±0,17 [mNs] pro Puls mit Pulslängen um 0,88 ×10 -5 [s] . Im Gegensatz dazu lag die Schubkraft des LDB`s bei etwa 27-32 [N] mit einem Impuls von 0,135-0,162 [mNs] pro Puls mit Pulslängen von 5-5,75 ×10 -6 [s].
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
Single crystals of the title compound, C10H11NO4, an intermediate in the industrial synthesis of yellow azo pigments, were obtained from the industrial production. The molecules crystallize as centrosymmetic dimers connected by two symmetry-related N—H⋯O=C hydrogen bonds. Each molecule also contains an intramolecular N—H⋯O=C hydrogen bond. The dimers form stacks along the a-axis direction. Neighbouring stacks are arranged into a herringbone structure.
‘The whole is more than the sum of its parts.’ This idea has been brought forward by psychologists such as Max Wertheimer who formulated Gestalt laws that describe our perception. One law is that of collinearity: elements that correspond in their local orientation to their global axis of alignment form a collinear line, compared to a noncollinear line where local and global orientations are orthogonal. Psychophysical studies revealed a perceptual advantage for collinear over non-collinear stimulus context. It was suggested that this behavioral finding could be related to underlying neuronal mechanisms already in the primary visual cortex (V1). Studies have shown that neurons in V1 are linked according to a common fate: cells responding to collinearly aligned contours are predominantly interconnected by anisotropic long-range lateral connections. In the cat, the same holds true for visual interhemispheric connections. In the present study we aimed to test how the perceptual advantage of a collinear line is reflected in the anatomical properties within or between the two primary visual cortices. We applied two neurophysiological methods, electrode and optical recording, and reversibly deactivated the topographically corresponding contralateral region by cooling in eight anesthetized cats. In electrophysiology experiments our results revealed that influences by stimulus context significantly depend on a unit’s orientation preference. Vertical preferring units had on average a higher spike rate for collinear over non-collinear context. Horizontal preferring units showed the opposite result. Optical imaging experiments confirmed these findings for cortical areas assigned to vertical orientation preference. Further, when deactivating the contralateral region the spike rate for horizontal preferring units in the intact hemisphere significantly decreased in response to a collinear stimulus context. Most of the optical imaging experiments revealed a decrease in cortical activity in response to either stimulus context crossing the vertical midline. In conclusion, our results support the notion that modulating influences from stimulus context can be quite variable. We suggest that the kind of influence may depend on a cell’s orientation preference. The perceptual advantage of a collinear line as one of the Gestalt laws proposes is not uniformly represented in the activity of individual cells in V1. However, it is likely that the combined activity of many V1 neurons serves to activate neurons further up the processing stream which eventually leads to the perceptual phenomenon.
In der erziehungswissenschaftlichen Diskussion um das Altern haben bislang Prozesse des Stillstands und des Verlusts wenig an Bedeutung erlangt. Im Vordergrund standen vielmehr Aktivierung und an Steigerung orientierte Entwicklung. Die vorgestellte empirische Studie nähert sich aus erziehungswissenschaftlicher Sicht der Frage des individuellen wie institutionellen Umgangs mit Verlusten und Grenzen im Alternsprozess (am Beispiel einer im Alter eintretenden Sehbehinderung, der Makuladegeneration). Die Beschäftigung mit diesem Gegenstand verlangt nach einem theoretischen Rahmen, der sowohl individuelle Lebenswelten in den Blick nimmt und gleichzeitig deren institutionell und sozial strukturierte Infrastrukturen. Dafür arbeitet die qualitativ angelegte Studie mit der Heuristik der "sozialen Welt". In diese ist eine Vielzahl pädagogischer Formen eingebettet, auf die von den Befragten jeweils unterschiedlich Bezug genommen wird. Die Relationierung von Akteursperspektiven innerhalb der untersuchten sozialen Welt zeigt dabei auf, dass man den Umgang mit einer altersbedingten Kompetenzeinbuße nicht angemessen begreifen kann, wenn man lineare Vorstellungen pädagogischen Handelns im Sinne einer Steigerung zugrunde legt. Zudem zeigt sich, dass das Pädagogische in sozialen Formen institutionalisiert ist, die eng mit nicht-pädagogischen Handlungsformen verschränkt sind.
In diesem Dossier setzen sich junge Menschen – mit und ohne Migrationshintergrund – mit den Konstruktionen, verallgemeinernden und exotisierenden Vorurteilen gegen MigrantInnen auseinander, die den gesellschaftlichen Diskurs bestimmen. Die AutorInnen, alle derzeit StipendiatInnen der Heinrich-Böll-Stiftung, bringen - mal empört und provokativ, mal beschreibend und empathisch – ihre Haltung zum polarisierenden Diskurs über „In- und Ausländer“ zum Ausdruck und zeigen, dass und wie es auch anders geht. Ihre Geschichten sind geprägt von ihren eigenen Erfahrungen aus ihrem Leben in Deutschland oder ihren Einblicken in das Leben der „Anderen“.
Ihre Analysen, Interviews, Portraits oder Erzählungen in den drei Rubriken zeigen mit dem Finger auf manche Wunde unserer Gesellschaft – auf die Hürden und Blockaden, die MigrantInnen von der gleichberechtigten Teilhabe abhalten und ihren sozialen Aufstieg behindern.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Diskus : Nr. 1.09
(2009)
The privatization of Old Age and Survivors Insurance and Disability Insurance was a top priority on president Bush’s domestic political agenda. Although Bush’s reform initiative has failed and president Obama has declared not to privatize social security, the system of public old age security in the United States is still in crisis, mainly because of demographic factors and the ensuing financial problems but also because of the recent and deep economic recession in the United States. This article reviews the initiative of the Bush-Administration to partially privatize social security and analyzes the main objectives behind Bush policy as well as the main arguments against and obstacles to it. By placing Bush politics of privatizing social security in a broader context of comparative welfare state reform, this article discusses the consequences of privatizing social security systems on equality and poverty, as well as on the legitimacy of the political system in general.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Der vorliegende Materialienband entstand im Rahmen der problemorientierten Diskursfeldanalyse zu „Klimabedingten Veränderungen der Biodiversität“. Ziel dabei ist es, prioritäre Themen und zentrale Akteure systematisch darzustellen, sowie Konfliktlinien und zukünftige Handlungsbedarfe innerhalb des Themenfeldes zu identifizieren. Das Millennium Ecosystem Assessment bildet dabei eine zentrale Diskursarena im Diskursfeld. Im Zentrum der Analyse des Millennium Ecosystem Assessments stehen wissenschaftlich beeinflusste Positionen und die Frage nach deren gesellschaftlicher Nutzung.
Es ist von wissenschaftlicher Seite unumstritten, dass die Auswirkungen des Klimawandels bereits heute die Biodiversität auf unterschiedliche Art und Weise stark beeinflussen. Der vorliegende Bericht analysiert daher den Diskurs zum Themenfeld klimabedingte Biodiversitätsveränderungen auf wissenschaftlicher Basis. Dabei werden zunächst kurz die Vorgeschichte und die zentralen Inhalte des Millennium Ecosystem Assessment skizziert. Die Darlegung und Diskussion übergreifender Themenfelder ermöglicht die Festlegung prioritärer Diskursstränge innerhalb der Diskursarena. Diese umfassen sowohl ökosystemare Aspekte als auch wirtschaftliche Handlungsfelder und forscherliche Herausforderungen. In einem weiteren Arbeitsschritt werden umstrittene Wirkungszusammenhänge sowie wissenschaftliche Forschungsbedarfe und gesellschaftliche Handlungsbedarfe erörtert.
Traditional New Keynesian models prescribe that optimal monetary policy should aim at price stability. In the absence of a labor market frictions, the monetary authority faces no unemployment/inflation trade-off. I study the design of optimal monetary policy in a framework with sticky prices and matching frictions in the labor market. Optimal policy features deviations from price stability in response to both productivity and government expenditure shocks. When the Hosios 1990 condition is not met, search externalities make the flexible price allocation unfeasible. Optimal deviations from price stability increase with workers’ bargaining power, as firms´ incentives to post vacancies fall and unemployment fluctuates above the Pareto efficient one.
Recent empirical research suggests that measures of investor sentiment have predictive power for future stock returns at intermediate and long horizons. Given that sentiment indicators are widely published, smart investors should exploit the information conveyed by the indicator and thus trigger an immediate market response to the publication of the sentiment indicator. The present paper is the first to empirically analyze whether this immediate response can be identified in the data. We use survey-based sentiment indicators from two countries (Germany and the US). Consistent with previous research we find predictability at intermediate horizons. However, the predictability in the US largely disappears after 1994. Using event study methodology we find that the publication of sentiment indicators affects market returns. The sign of this immediate response is the same as the sign of the intermediate horizon predictability. This is consistent with sentiment being related to mispricing but is inconsistent with the sentiment indicator providing information about future expected returns.
JEL-Classification: G12, G14
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
It is well known that Luis Kutner (1908-1993) played an important role in the development of the living will (advance directive, Patientenverfügung). But it is not clear when he developed his concept. We have screened the Luis Kutner Papers,deposited at the Hoover Institution Archives at Stanford University to answer this question. We found out that in the second half of 1967, Kutner dealt intensively with the issue of euthanasia. On December 7, 1967, he delivered a speech at the annual meeting of the Euthanasia Society in New York and presented the concept of the living will to the audience. So Kutner surely was a pioneer in this field, but further research is necessary to clarify, if he (or maybe Elsa W. Simon or Abraham L. Wolbarst) was the "originator" of the living will concept in the sense of passive euthanasia.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence, and as a consequence also yields soundness of the encodings with respect to a contextually defined notion of program equivalence. While these translations encode blocking into queuing and waiting, we also describe an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
The paper proposes a variation of simulation for checking and proving contextual equivalence in a non-deterministic call-by-need lambda-calculus with constructors, case, seq, and a letrec with cyclic dependencies. It also proposes a novel method to prove its correctness. The calculus’ semantics is based on a small-step rewrite semantics and on may-convergence. The cyclic nature of letrec bindings, as well as nondeterminism, makes known approaches to prove that simulation implies contextual equivalence, such as Howe’s proof technique, inapplicable in this setting. The basic technique for the simulation as well as the correctness proof is called pre-evaluation, which computes a set of answers for every closed expression. If simulation succeeds in finite computation depth, then it is guaranteed to show contextual preorder of expressions.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.