Universitätspublikationen
Refine
Year of publication
- 2009 (613) (remove)
Document Type
- Article (180)
- Doctoral Thesis (116)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (27)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
- Magister's Thesis (7)
- diplomthesis (6)
- Periodical (5)
- Part of a Book (4)
- magisterthesis (3)
- Preprint (1)
Language
- German (367)
- English (229)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (613)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (47)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (32)
- E-Finance Lab e.V. (24)
- Informatik (24)
Klassische Bildmanipulation spielt sich meist im Zweidimensionalen, also in der reinen Bild-ebene ab. So werden beispielsweise Objekte aus Fotos entfernt, indem die dahinterliegende Struktur nachgezeichnet wird, oder es werden mehrere Teilbilder zu einem neuen, verfälschten Motiv zusammengesetzt. Bei der sogenannten Bildretuschierung werden unschöne Bereiche übermalt, um einen besseren Gesamteindruck zu erreichen. All diese Manipulationen haben im Grunde das gleiche Ziel: Das Erstellen einer möglichst realistischen Verfälschung der darge-stellten Szene indem die eigentlich dreidimensionalen Elemente in 2D imitiert werden.
Ziel dieser Arbeit ist es, von der reinen Zweidimensionalität eines Bildes Abstand zu nehmen und ein neues Verfahren zu entwickeln, Manipulationen im wirklichen 3D-Inhalt des Fotogra-fierten vorzunehmen. Dazu wird die klassische Bildmanipulation mit aktuellen Verfahren aus dem Bereich Multi View Stereo verknüpft. In einem ersten Schritt wird aus einer Fotoserie ein 3D-Modell mit passenden Texturen erstellt, welches anschließend nach Belieben manipuliert werden kann. Diese Veränderungen werden schließlich wieder in die Originalbilder übertragen, wodurch eine 3D-unterstützte Bildmanipulation realisiert wird.
Die praktische Umsetzung des vorgestellten Verfahrens basiert teilweise auf bereits vorhan-dener Software, die mit dem Ziel der Bildmanipulation neu kombiniert und durch eigene Um-setzungen ergänzt wird. So entsteht eine funktionierende Implementierung, die den kompletten Weg vom Original bis hin zum manipulierten Bild abdeckt.
Jede erfolgreiche Software muss in einer geeigneten Art und Weise mit der Person, die sie benutzt, in Verbindung treten. Diese Schnittstelle zwischen Mensch und Maschine ist ein zentraler Baustein in der Softwareentwicklung. Eine noch so mächtige und ausgereifte Software kann ihr Potential nicht ausschöpfen, wenn Probleme und Missverständnisse bei der Kommunikation mit dem Anwender auftreten.
Bei graphischen Benutzeroberflächen erfolgt die Interaktion zwischen Benutzer und technischem System mittels graphischer Symbole, die am Bildschirm dargestellt werden. Die Oberfläche setzt sich aus verschiedenen Menüs und Steuerelementen mit dem Ziel zusammen, die zugrunde liegende Software für den Anwender bedienbar zu machen. Als Eingabegeräte dienen vor allem Maus und Tastatur. Für die Human Computer Interaction oder abgekürzt HCI (Mensch-Computer Interaktion) sind spezielle Normierungen und Anforderungen erstellt worden, die den Entwicklungsprozess unterstützten.
In dieser Arbeit wird eine graphische Benutzeroberfläche für einen Shader Viewer entworfen und implementiert. Beginnend bei ersten Skizzen und Prototypen wird der Entwicklungsprozess bis zur fertigen graphischen Oberfläche dargestellt. Probleme bei der Erstellung werden aufgezeigt und Lösungsstrategien entwickelt. Vor allem spielen Design und Usablity eine entscheidende Rolle. Verschiedene Aspekte und Alternativen, die im Entwicklungsprozess zu beachten sind, werden näher beleuchtet.
Diese Arbeit beschäftigt sich mit der konkreten Erzeugung von 2-3D Visualisierung. Im Fokus steht der notwendige Prozess zur Erzeugung von Computergrafik.
Da die Computergrafik heut zu Tage wichtiger Bestandteil vieler Aufgabengebiete ist, sollte deren Nutzung auch allen Menschen zugänglich sein. In den vergangen Jahren blieb dies meist nur Leuten aus den Fachgebieten vorbehalten, aufgrund der Komplexität und des notwendigen „Know-how“ über die Thematik. Mittlerweile gilt diese Tatsache als überholt. Viele Erneuerung im Bereich von Hardware und Software haben es ermöglicht, dass selbst ungeübte Anwender in der Lage sind, ansehnliche 3D Grafiken an ihren PCs bei der Arbeit oder zu Hause zu erzeugen. Dies soll ebenfalls das Ziel dieser Arbeit sein. Dazu wird in eine Applikation erstellt die die Visualisierung von graphischen Primitiven unter der Verwendug von Microsofts DirectX leicht und schnell ermöglichen soll. Als Basis dient ein Rendering-Framework, welches auf einheitliches Schnittstellenkonzept setzt, um die strikte Trennung zwischen Anwender- und Fachwissen zu vollziehen.
Weitere Schwerpunkte dieser Arbeit liegen im Bereich der Modellierung von graphischen Primtiven und der Nutzung von Shadern. Dazu wird in der Modellierung der Import von archivierten Modellen umgesetzt. Die Nutzung von Shadern soll soweit vereinfacht werden, dass Anwender auf Shader beleibig zugreifen können. Dies soll durch eine Verknüpfung zwischen Shadern und Modellen erfolgen, die ebenfalls im Bereich der Modellierung erfolgt.
Shader zur Bildbearbeitung
(2009)
In den letzten Jahren haben Grafikkarten eine starke Veränderung erfahren. Anfangs war lediglich die Darstellung vorberechneter Primitive möglich, mittlerweile lassen sich Vertex- und Pixelshader komplett frei programmieren. Die Spezialisierung auf den Rendervorgang hat die GPUs (Graphics Processing Units) zu massiv-parallelen Prozessoren wachsen lassen, die unter optimaler Ausnutzung ein Vielfaches der Rechenleistung aktueller CPUs erreichen. Die programmierbaren Shader haben Grafikkarten in der letzten Zeit vermehrt als weiteren Prozessor für General Purpose-Programmierung werden lassen.
Aktuelle Bildbearbeitungsprogramme zeigen, dass sich die Tendenz Richtung GPU bewegt, so wird sich auch in dieser Arbeit die enorme Rechenleistung der GPU für die Bildbearbeitung zu nutzen gemacht. Bildfilter lassen sich als Pixelshader realisieren und ermöglichen so die Ausführung direkt auf der GPU. Das vorgestellte Framework SForge wurde mit dem Ziel entwickelt, zu einem bestehenden Framework kompatibel zu sein. Als bestehendes Framework wurde auf AForge zurückgegriffen. Mit SForge können bestehende und eigene Bildfilter direkt auf der GPU ausgeführt werden, aber auch die Konvertierung von Farbräumen und Farbsystemen wurden realisiert. Das Framework arbeitet floatbasierend. Somit können auch HDR-Daten verarbeitet werden, um beispielsweise Tonemapping anzuwenden. Filter mit Parametern lassen sich über einen optionalen Dialog interaktiv ändern und modifizieren das Resultat in Echtzeit.
Rezension zu: H.-M. von Kaenel and F. Kemmers (eds.). 2009. Coins in Context I: New Perspectives for the Interpretation of Coin Finds. Studien zu Fundmünzen der Antike 23 (Mainz: von Zabern).
Im Rahmen dieser Arbeit wurde ein Kabelpulsgenerator entwickelt und untersucht, der zur Erzeugung dielektrischer Barriereentladungen, genutzt wird. Diese Barriereentladung soll zur Wassersterilisation angewendet werden. Als schnelles Schaltelement des Kabelpulsers wurde ein Lorentz-Drift-Schalter (LDS), der ebenfalls in der Arbeitsgruppe Plasmaphyik entwickelt wird, verwendet. Dieser wurde grundlegend auf dessen elektrische Eigenschaften in Bezug auf den Einsatz in einem Pulsgenerator untersucht. Zudem sollen diese Messungen zur Weiterentwicklung des LDS von Nutzen sein und werden in diesem Kapitel zusammengefasst und interpretiert.
Zur Bestimmung des Arbeitsgasdrucks wurde der Verlauf der Durchbruchspannung verschiedener Gase in Abhängigkeit des Drucks aufgenommen. Durch diese Messungen konnte die maximale Haltespannung zum jeweiligen Druck, sowie der optimale Arbeitsdruckbereich des Schalters, der möglichst nahe des Selbstdurchbruchs liegt, ermittelt werden. Es wurde ein Verlauf entsprechend der Abhängigkeit der Paschenkurve bestimmt. Dabei wurde festgestellt, dass sich die Druckbereiche der Gase Argon, Stickstoff und Luft stark von dem des Wasserstoffs unterscheiden.
Um möglichst steile Pulsflanken des Kabelpulsgenerators zu gewährleisten, wurden Messungen der Spannungabfallraten am LDS durchgeführt. Da das Plasma im Schalter als ohmsche Last angesehen werden kann, korreliert der Spannungsabfall mit dem Stromanstieg. Hierbei konnte generell ein Anstieg der Spannungsabfallzeit mit zunehmender Ladespannung festgestellt werden. Teilweise konnte ein sprunghaftes Verhalten nachgewiesen werden, was wie folgt zu interpretieren ist: Der LDS ist ein schneller Gasentladungsschalter für hohe Ströme und hohe Spannungen. Um eine laufende Entladung durch die Lorentzkraft im Elektrodenzwischenraum zu erreichen, wird eine gewisse Stromdichte benötigt, die das ”saubere” Durchzünden des Schalters gewährleistet, das Plasma an den Elektroden nach oben laufen lässt und später die Selbstlöschung einleitet. Die in der Kapazität des Koaxialkabels gespeicherte Energie reichte bei kleinen Ladespannungen nur zu einer kurzen Uberbrückung der Elektroden. Zudem konnte eine Steigerung der Spannungsabfallzeit mit zunehmendem Druck festgestellt werden, was dafur spricht den Schalter bei einem Druckbereich möglichst nahe des Selbstdurchbruchs zu betreiben, um ein optimales Entladeverhalten zu gewährleisten. Weitere wichtige Parameter eines Gasentladungsschalters sind die Delay- und Jitterwerte. Neben dem Delay wurden im Rahmen dieser Arbeit erstmals Jittermessungen am LDS durchgefuürt. Diese wurden mit den oben genannten Gasen mit unterschiedlichen Triggerpulsen gemessen. Im Wesentlichen wurde ein kürzerer und ein längerer Triggerpuls mit Pulslängen von 1 µs und 31 µs verwendet.
Weiterhin fand erstmals der Betrieb des LDS mit Wasserstoff als Arbeitsgas statt. Neben diversen Vorteilen im Entladeverhalten, erlaubt ein Betrieb des Schalters mit Wasserstoff die Verwendung von reversiblen Gasspeichern auf Titan- oder Zirkoniumbasis. Durch beheizen dieser Speicher, geben sie Gas ab und nehmen es beim Abkühlen wieder auf. Dadurch sind abgeschlossene Schaltsysteme, sogenannte ”Sealed-Off”-Systeme, fur weitere Prototypen realisierbar [Pet07].
Es wurde festgestellt, dass der Delay stark von der Triggermethode bzw. der Pulslänge des Triggers abhängt. Auch hier wird ein schneller Spannungsanstieg benötigt. Je schneller die Startelektronen durch das Triggerelement bereitgestellt werden, desto schneller zundet das Plasma im Elektrodenzwischenraum. Für einzelne Schaltvorgänge spielt der Delay eine untergeordnete Rolle, betrachtet man jedoch Repetitionsraten gewinnt jeder einzelne zeitliche Ablauf eines Schaltprozesses an Bedeutung. Bei den oben erwähnten ersten Jittermessungen konnten bei allen Gasen sehr niedrige Jitterwerte von deutlich unter 100 ns erreicht werden. Auch hier wurde eine starke Triggerpuls- und Arbeitsgasabhängigkeit festgestellt. Auffällig wurde dies bei Untersuchungen mit Luft. Hier konnte der Jitter mit dem steilen Anstieg des kurzen Triggerpulses halbiert werden. Bei Messungen mit Wasserstoff wurde ein Jitter von 13 ns erreicht. Wiederum ergab sich eine Verbesserung des Jitters mit zunehmender Ladespannung.
Des Weiteren wurde die Pulsform und deren Impedanzabh¨angigkeit am Spannungsausgang des Kabelpulsers untersucht. Unterschiedliche Impedanzwiderstände wurden angefertigt und in den Pulseraufbau integriert. Es zeigte sich eine eher geringe Änderung der Pulsform bei unterschiedlichen Impedanzwiderständen. Untersuchungen zeigten, dass die Spannungsamplitude mit dem Widerstandswert variiert, da er wie ein Spannungsteiler wirkt. Die radialsymmetrischen Impedanzwiderstände erzeugen eine weniger stufig abfallende Flanke. Die besten Resultate, was die Pulsform betrifft, wurde jedoch durch eine niederinduktivere Erdung erzielt. Es wurde ein Kabelpulsgenerator mit einem relativ ebenen Pulsplateau entwickelt, dessen Parameter, wie z.B. die Pulsbreite und die Spannungsamplitude, weitgehend unabhängig voneinander variierbar sind.
In dieser Diplomarbeit wurden zwei vom Funktionsprinzip und Aufbau her vollständig unterschiedliche Plasmabeschleuniger aufgebaut und bezüglich ihrer Eigenschaften untersucht. Der erste Aufbau ist ein Lorentzdriftbeschleuniger (LDB) mit kapazitiv erzeugten Plasmen, bei dem das Funktionsprinzip auf der Wirkung der Lorentzkraft auf bewegte Ladungsträger im Magnetfeld beruht. Der zweite Teil des Experiments stellt einen induktiven Beschleuniger (IB) dar, dessen Erzeugung und Beschleunigung von Plasmen auf Grund von Induktionskräften geschieht.
Die optischen und elektrischen Messungen von beiden Beschleunigern wurden in einem speziell konstruierten Experimentieraufbau durchgeführt. Beim Lorentzdriftbeschleuniger wurde der Einfluss der Elektrodenlänge auf den Bewegungsablauf der Plasmaentladung untersucht. Später, bei der Durchführung der Messungen mit dem induktiven Beschleuniger wurde der LDB als Schalter eingesetzt. Dabei stellte sich heraus, dass die Erosion der Elektroden aus Messing, die die Lebensdauer des Lorentzdriftbeschleunigers begrenzt, von der Stromstärke abhängt.
Als Ergebnis stellte sich heraus, dass der LDB einen einfacheren Aufbau als der IB hatte, die Ausstoßgeschwindigkeit des Plasmas war im Vergleich zum IB höher und betrug im Durchschnitt etwa 50-60 [km/s] gegenüber ≈ 21,5±6,5 [km/s] beim IB. Dagegen wurde beim IB eine größere Plasmamasse von 27 [μg] erzeugt gegenüber 2,8 [μg] beim LDB. Somit erreichte der IB eine höhere Schubkraft von ≈ 66 [N] bei einem Impuls von 0,58±0,17 [mNs] pro Puls mit Pulslängen um 0,88 ×10 -5 [s] . Im Gegensatz dazu lag die Schubkraft des LDB`s bei etwa 27-32 [N] mit einem Impuls von 0,135-0,162 [mNs] pro Puls mit Pulslängen von 5-5,75 ×10 -6 [s].
In dieser Arbeit wurden im Rahmen des HADES-Experimentes von 2007 Proton-Proton-Stöße bei einer kinetischen Energie von Tkin = 3.5GeV der Reaktion pp → ppw simuliert. Insbesondere wurde mittels einer Pluto-Simulation untersucht, welche Auswirkungen die Berücksichtigung möglicher Verteilungsfunktionen für cos(θω) und cos(θ pp), die neben 2 weiteren Parametern als voneinander unabhängige Observablen zur Beschreibung der Reaktion gewählt wurden, auf die Anzahl der simulierten Ereignisse Nsim innerhalb der Detektorakzeptanz des HADES haben könnte. Hierbei stammt die gewählte Winkelverteilung für die w-Produktion aus Messungen des nicht mehr existierenden DISTO-Spektrometers, das Proton-Proton-Stöße bei einer leicht geringeren Energie von Tkin = 2.85GeV durchgeführt hatte, während die Verteilung für die Proton-Proton-Paar-Ausrichtung auf einer Annahme basiert und vorläufig gewählt wurde. Unter Verwendung eines weiteren Modells, das den 3-Teilchen-Zerfall ω → π+π−π0 beschreibt, wurde ein theoretisches Modell von Lutz et al. [1] in die Simulation implementiert, dessen Auswirkung auf Nsim es ebenfalls zu untersuchen galt. Dieses erlaubt eine Reduzierung der Anzahl der Freiheitsgrade des Systems von 12 auf 4, was eine Akzeptanzkorrektur der Reaktion pp→ ppω ermöglicht.
Die Ergebnisse zeigten eine starke Abhängigkeit der Anzahl der simulierten Teilchen von der Proton-Proton-Ausrichtung, die zu einer Reduzierung der Ereignisanzahl von etwa 15% führt. Dies hat zur Folge, dass eine Bestimmung der Verteilungsfunktion für diese Observable absolut notwendig ist. Die Auswirkungen der w-Winkelverteilung beträgt etwa 4−9%. Ein Vergleich der Simulationsergebnisse mit und ohne Modell führte zu dem Ergebnis, dass eine geringe Änderung der Nsim von 1−2% zu Gunsten des Zerfallsmodells vorliegt. Eine Berücksichtigung in Simulationen, die der Untersuchung des betrachteten Zerfalls dienen, ist also keine Notwendigkeit.
Orts- und zeitaufgelöste Elektronendichte eines gepulsten induktiv gekoppelten Entladungsplasmas
(2009)
In der vorliegenden Bachelorarbeit wurde ein Modell für die räumlich und zeitlich aufgelöste Elektronendichteverteilung in einem gepulsten induktiv gekoppelten Plasma erstellt. Experimentell war es, bedingt durch den gepulsten Betrieb und die Wahl der Diagnostikmethode im Experiment „Prometheus“, nur möglich über die Zeit und den Ort gemittelte Elektronendichten zu messen.
Um nun den räumlichen Verlauf der Elektronendichte zu bestimmen, wurde die räumliche Elektronendichteverteilung durch eine ambipolare homogene Diffusion beschrieben. Die daraus resultierende Differentialgleichung wurde mithilfe von sphärischen Koordinaten unter Annahme von Azimutal- und Polarwinkelsymmetrie gelöst.
Der zeitliche Elektronendichteverlauf wurde durch die, für diesen Elektronendichtebereich gültige, Proportionalität zwischen elektrischer Leistung im Plasma und Elektronendichte berechnet. Die elektrische Leistung und deren zeitlicher Verlauf im Plasma ließ sich über ein Photodiodensignal im experimentellen Aufbau ermitteln.
Das so ermittelte Modell wurde auf die gemessenen integrierten Elektronendichten des Experiments „Prometheus“ angewendet. Durch das Modell ließ sich eine Aussage über die tatsächliche maximale Elektronendichte innerhalb des Entladungspulses treffen.
Single crystals of the title compound, C10H11NO4, an intermediate in the industrial synthesis of yellow azo pigments, were obtained from the industrial production. The molecules crystallize as centrosymmetic dimers connected by two symmetry-related N—H⋯O=C hydrogen bonds. Each molecule also contains an intramolecular N—H⋯O=C hydrogen bond. The dimers form stacks along the a-axis direction. Neighbouring stacks are arranged into a herringbone structure.
‘The whole is more than the sum of its parts.’ This idea has been brought forward by psychologists such as Max Wertheimer who formulated Gestalt laws that describe our perception. One law is that of collinearity: elements that correspond in their local orientation to their global axis of alignment form a collinear line, compared to a noncollinear line where local and global orientations are orthogonal. Psychophysical studies revealed a perceptual advantage for collinear over non-collinear stimulus context. It was suggested that this behavioral finding could be related to underlying neuronal mechanisms already in the primary visual cortex (V1). Studies have shown that neurons in V1 are linked according to a common fate: cells responding to collinearly aligned contours are predominantly interconnected by anisotropic long-range lateral connections. In the cat, the same holds true for visual interhemispheric connections. In the present study we aimed to test how the perceptual advantage of a collinear line is reflected in the anatomical properties within or between the two primary visual cortices. We applied two neurophysiological methods, electrode and optical recording, and reversibly deactivated the topographically corresponding contralateral region by cooling in eight anesthetized cats. In electrophysiology experiments our results revealed that influences by stimulus context significantly depend on a unit’s orientation preference. Vertical preferring units had on average a higher spike rate for collinear over non-collinear context. Horizontal preferring units showed the opposite result. Optical imaging experiments confirmed these findings for cortical areas assigned to vertical orientation preference. Further, when deactivating the contralateral region the spike rate for horizontal preferring units in the intact hemisphere significantly decreased in response to a collinear stimulus context. Most of the optical imaging experiments revealed a decrease in cortical activity in response to either stimulus context crossing the vertical midline. In conclusion, our results support the notion that modulating influences from stimulus context can be quite variable. We suggest that the kind of influence may depend on a cell’s orientation preference. The perceptual advantage of a collinear line as one of the Gestalt laws proposes is not uniformly represented in the activity of individual cells in V1. However, it is likely that the combined activity of many V1 neurons serves to activate neurons further up the processing stream which eventually leads to the perceptual phenomenon.
In der erziehungswissenschaftlichen Diskussion um das Altern haben bislang Prozesse des Stillstands und des Verlusts wenig an Bedeutung erlangt. Im Vordergrund standen vielmehr Aktivierung und an Steigerung orientierte Entwicklung. Die vorgestellte empirische Studie nähert sich aus erziehungswissenschaftlicher Sicht der Frage des individuellen wie institutionellen Umgangs mit Verlusten und Grenzen im Alternsprozess (am Beispiel einer im Alter eintretenden Sehbehinderung, der Makuladegeneration). Die Beschäftigung mit diesem Gegenstand verlangt nach einem theoretischen Rahmen, der sowohl individuelle Lebenswelten in den Blick nimmt und gleichzeitig deren institutionell und sozial strukturierte Infrastrukturen. Dafür arbeitet die qualitativ angelegte Studie mit der Heuristik der "sozialen Welt". In diese ist eine Vielzahl pädagogischer Formen eingebettet, auf die von den Befragten jeweils unterschiedlich Bezug genommen wird. Die Relationierung von Akteursperspektiven innerhalb der untersuchten sozialen Welt zeigt dabei auf, dass man den Umgang mit einer altersbedingten Kompetenzeinbuße nicht angemessen begreifen kann, wenn man lineare Vorstellungen pädagogischen Handelns im Sinne einer Steigerung zugrunde legt. Zudem zeigt sich, dass das Pädagogische in sozialen Formen institutionalisiert ist, die eng mit nicht-pädagogischen Handlungsformen verschränkt sind.
In diesem Dossier setzen sich junge Menschen – mit und ohne Migrationshintergrund – mit den Konstruktionen, verallgemeinernden und exotisierenden Vorurteilen gegen MigrantInnen auseinander, die den gesellschaftlichen Diskurs bestimmen. Die AutorInnen, alle derzeit StipendiatInnen der Heinrich-Böll-Stiftung, bringen - mal empört und provokativ, mal beschreibend und empathisch – ihre Haltung zum polarisierenden Diskurs über „In- und Ausländer“ zum Ausdruck und zeigen, dass und wie es auch anders geht. Ihre Geschichten sind geprägt von ihren eigenen Erfahrungen aus ihrem Leben in Deutschland oder ihren Einblicken in das Leben der „Anderen“.
Ihre Analysen, Interviews, Portraits oder Erzählungen in den drei Rubriken zeigen mit dem Finger auf manche Wunde unserer Gesellschaft – auf die Hürden und Blockaden, die MigrantInnen von der gleichberechtigten Teilhabe abhalten und ihren sozialen Aufstieg behindern.
140 Liter Wasser werden für die Herstellung einer Tasse Kaffee benötigt, 1.300 Liter Wasser für ein Kilo Gerste und 3.400 Liter Wasser für ein Kilo Reis. Diese Zahlen mögen im ersten Moment unglaubwürdig erscheinen, doch sie entsprechen der Wirklichkeit. Für die Herstellung von nahezu allen Produkten wird Wasser in teils sogar sehr großen Mengen benötigt. In dem Endprodukt jedoch findet sich meist nur ein kleiner Teil des ursprünglich eingesetzten Wassers in seiner physischen Form wieder. Der überwiegende Anteil wurde während des Produktionsprozesses verdunstet oder zur Kühlung eingesetzt und wird daher als „virtuelles Wasser“ bezeichnet. Aufgrund des Exports und Imports von Produkten im Zuge des internationalen Handels kommt es somit auch zu Strömen von virtuellem Wasser zwischen den einzelnen Ländern. In dieser Bachelorarbeit wird der virtuelle Wasserhandel mit 23 verschiedenen Feldfrüchten mit dem Fokus auf Deutschland für den Zeitraum von 1998 bis 2002 untersucht. In die Berechnung dieser virtuellen Wasserströme ist ein neuartiges Modell eingegangen, das Global Crop Water Model (GCWM), welches den virtuellen Wassergehalt für unterschiedliche Feldfruchtgruppen global für jede 5-Minuten-Zelle auf Basis detaillierter Daten berechnet. Dank dieses Modells ist es möglich, eine Trennung zwischen dem virtuellen Wasser, welches aus der Nutzung des Niederschlagswassers und dem virtuellen Wasser, welches aus der Bewässerung von Ackerflächen resultiert, vorzunehmen und diese getrennt von einander zu analysieren. Mittels der Verwendung der Handelsstatistik Comtrade der Vereinten Nationen lässt sich aus den Ergebnissen des GCWM der virtuelle Wasserhandel darstellen. Es zeigt sich, dass Deutschland das meiste Wasser in seiner virtuellen Form nach Algerien, Saudi-Arabien, Belgien und in die Niederlande exportiert, wohingegen aus Brasilien, den USA, Frankreich und der Elfenbeinküste die größten virtuellen Wassermengen importiert werden.
In dieser Arbeit wurden zwei unterschiedliche Konzepte für einen Rebuncher mit mehreren Aperturen auf der Symmetrieachse des geplanten Bunchkompressors für das FRANZ-Projekt untersucht. Die besonderen Anforderungen sind die Zeitstruktur des Strahls und der geringe seitliche Abstand der unterschiedlichen Strahlwege...
Diskus : Nr. 1.09
(2009)
The privatization of Old Age and Survivors Insurance and Disability Insurance was a top priority on president Bush’s domestic political agenda. Although Bush’s reform initiative has failed and president Obama has declared not to privatize social security, the system of public old age security in the United States is still in crisis, mainly because of demographic factors and the ensuing financial problems but also because of the recent and deep economic recession in the United States. This article reviews the initiative of the Bush-Administration to partially privatize social security and analyzes the main objectives behind Bush policy as well as the main arguments against and obstacles to it. By placing Bush politics of privatizing social security in a broader context of comparative welfare state reform, this article discusses the consequences of privatizing social security systems on equality and poverty, as well as on the legitimacy of the political system in general.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Der vorliegende Materialienband entstand im Rahmen der problemorientierten Diskursfeldanalyse zu „Klimabedingten Veränderungen der Biodiversität“. Ziel dabei ist es, prioritäre Themen und zentrale Akteure systematisch darzustellen, sowie Konfliktlinien und zukünftige Handlungsbedarfe innerhalb des Themenfeldes zu identifizieren. Das Millennium Ecosystem Assessment bildet dabei eine zentrale Diskursarena im Diskursfeld. Im Zentrum der Analyse des Millennium Ecosystem Assessments stehen wissenschaftlich beeinflusste Positionen und die Frage nach deren gesellschaftlicher Nutzung.
Es ist von wissenschaftlicher Seite unumstritten, dass die Auswirkungen des Klimawandels bereits heute die Biodiversität auf unterschiedliche Art und Weise stark beeinflussen. Der vorliegende Bericht analysiert daher den Diskurs zum Themenfeld klimabedingte Biodiversitätsveränderungen auf wissenschaftlicher Basis. Dabei werden zunächst kurz die Vorgeschichte und die zentralen Inhalte des Millennium Ecosystem Assessment skizziert. Die Darlegung und Diskussion übergreifender Themenfelder ermöglicht die Festlegung prioritärer Diskursstränge innerhalb der Diskursarena. Diese umfassen sowohl ökosystemare Aspekte als auch wirtschaftliche Handlungsfelder und forscherliche Herausforderungen. In einem weiteren Arbeitsschritt werden umstrittene Wirkungszusammenhänge sowie wissenschaftliche Forschungsbedarfe und gesellschaftliche Handlungsbedarfe erörtert.
Traditional New Keynesian models prescribe that optimal monetary policy should aim at price stability. In the absence of a labor market frictions, the monetary authority faces no unemployment/inflation trade-off. I study the design of optimal monetary policy in a framework with sticky prices and matching frictions in the labor market. Optimal policy features deviations from price stability in response to both productivity and government expenditure shocks. When the Hosios 1990 condition is not met, search externalities make the flexible price allocation unfeasible. Optimal deviations from price stability increase with workers’ bargaining power, as firms´ incentives to post vacancies fall and unemployment fluctuates above the Pareto efficient one.
Recent empirical research suggests that measures of investor sentiment have predictive power for future stock returns at intermediate and long horizons. Given that sentiment indicators are widely published, smart investors should exploit the information conveyed by the indicator and thus trigger an immediate market response to the publication of the sentiment indicator. The present paper is the first to empirically analyze whether this immediate response can be identified in the data. We use survey-based sentiment indicators from two countries (Germany and the US). Consistent with previous research we find predictability at intermediate horizons. However, the predictability in the US largely disappears after 1994. Using event study methodology we find that the publication of sentiment indicators affects market returns. The sign of this immediate response is the same as the sign of the intermediate horizon predictability. This is consistent with sentiment being related to mispricing but is inconsistent with the sentiment indicator providing information about future expected returns.
JEL-Classification: G12, G14
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
It is well known that Luis Kutner (1908-1993) played an important role in the development of the living will (advance directive, Patientenverfügung). But it is not clear when he developed his concept. We have screened the Luis Kutner Papers,deposited at the Hoover Institution Archives at Stanford University to answer this question. We found out that in the second half of 1967, Kutner dealt intensively with the issue of euthanasia. On December 7, 1967, he delivered a speech at the annual meeting of the Euthanasia Society in New York and presented the concept of the living will to the audience. So Kutner surely was a pioneer in this field, but further research is necessary to clarify, if he (or maybe Elsa W. Simon or Abraham L. Wolbarst) was the "originator" of the living will concept in the sense of passive euthanasia.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence, and as a consequence also yields soundness of the encodings with respect to a contextually defined notion of program equivalence. While these translations encode blocking into queuing and waiting, we also describe an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
The paper proposes a variation of simulation for checking and proving contextual equivalence in a non-deterministic call-by-need lambda-calculus with constructors, case, seq, and a letrec with cyclic dependencies. It also proposes a novel method to prove its correctness. The calculus’ semantics is based on a small-step rewrite semantics and on may-convergence. The cyclic nature of letrec bindings, as well as nondeterminism, makes known approaches to prove that simulation implies contextual equivalence, such as Howe’s proof technique, inapplicable in this setting. The basic technique for the simulation as well as the correctness proof is called pre-evaluation, which computes a set of answers for every closed expression. If simulation succeeds in finite computation depth, then it is guaranteed to show contextual preorder of expressions.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.
The paper argues that the current global market is organized by a system of transnational law whose development is best characterized as ambivalent. On the one side, legal juridification can lead to a hegemonic system of international law that lacks legitimacy, paradoxically creates extralegal spheres, promotes the ‘privatization’ of political areas, and, thereby, reduces the competences of states. On the other side, legal codification can also function as an engine of transnational democratization and as a barrier to an unhampered growth of transnational administrative and executive power. Scholarship on the idea of legitimacy in law and transnational governance in political and legal theory has to reflect these aspects of juridification on a world scale. Most approaches to the issue, however, have serious flaws: they neither offer an adequate empirical diagnosis of the de-embedding of international economic and legal processes, nor do they provide convincing proposals as to how such processes could be domesticated. Against this background, the paper lays out a critical analysis of legal codification processes as well as proposing an account of democratic governance, based on a realistic conception of deliberative democracy.
This article argues that proliferation of prefixes like ‘neo’ and ‘post’ that adorn conventional ‘isms’ have cast a long shadow on the contemporary relevance of traditional political ideologies. Suggesting that there is, indeed, something new about today’s political belief systems, the essay draws on the concept of ‘social imaginaries’ to make sense of the changing nature of the contemporary ideological landscape. The core thesis presented here is that today’s ideologies are increasingly translating the rising global imaginary into competing political programs and agendas. But these subjective dynamics of denationalization at the heart of globalization have not yet dispensed with the declining national imaginary. The twenty-first century promises to be an ideational interregnum in which both the global and national stimulate people’s deep-seated understandings of community. Suggesting a new classification scheme dividing contemporary political ideologies into ‘market globalism’, ‘justice globalism’, and ‘jihadist globalism’, the article ends with a brief assessment of the main ideological features of justice globalism.
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Mitochondrial dysfunction is well documented in presymptomatic brain tissue with Parkinson's disease (PD). Identification of the autosomal recessive variant PARK6 caused by loss-of-function mutations in the mitochondrial kinase PINK1 provides an opportunity to dissect pathogenesis. Although PARK6 shows clinical differences to PD, the induction of alpha-synuclein "Lewy" pathology by PINK1-deficiency proves that mitochondrial pathomechanisms are relevant for old-age PD. Mitochondrial dysfunction is induced by PINK1 deficiency even in peripheral tissues unaffected by disease, consistent with the ubiquitous expression of PINK1. It remains unclear whether this dysfunction is due to PINK1-mediated phosphorylation of proteins inside or outside mitochondria. Although PINK1 deficiency affects the mitochondrial fission/fusion balance, cell stress is required in mammals to alter mitochondrial dynamics and provoke apoptosis. Clearance of damaged mitochondria depends on pathways including PINK1 and Parkin and is critical for postmitotic neurons with high energy demand and cumulative stress, providing a mechanistic concept for the tissue specificity of disease.
Eucken's writings are rich in content not only from an (constitutional) economic perspective but also from an economic and business ethics perspective – an often neglected perspective of the reception of German Ordoliberalism in general and the Freiburg School of Economics in particular. The paper gives a first insight into the ethical-normative thinking of Eucken, as one of the main representatives of Ordoliberalism, and explains Eucken’s conception of Social Market Economy as a functioning and humane order as well as Eucken’s Kantian understanding of freedom. To conclude the essay tries to classify Eucken’s Ordoliberalism as a part of the spectrum of modern economic and business ethics.
Tagungsbericht des Workshops "Völkerrecht und Weltwirtschaft im 19. Jahrhundert. Die Internationalisierung der Ökonomie aus völkerrechts- und wirtschafts(theorie-)geschichtlicher Perspektive", der vom 3. bis 4. September 2009 in Frankfurt am Main stattfand. Veranstalter: Exzellenzcluster "Die Herausbildung normativer Ordnungen"; in Kooperation mit der Goethe Universität Frankfurt am Main; dem Max-Planck-Institut für europäische Rechtsgeschichte
Background, aim, and scope: The chemical substance 2,4,7,9-tetramethyl-5-decyne-4,7-diol (TMDD) is a non-ionic surfactant used as an industrial defoaming agent and in various other applications. Its commercial name is Surynol 104® and the related ethoxylates are also available as Surfynol® 420, 440, 465 and 485 which are characterized by different grades of ethoxylation of TMDD at both hydroxyl functional groups. TMDD and its ethoxylates offer several advantages in waterborne industrial applications in coatings, inks, adhesives as well as in paper industries. TMDD and its ethoxylates can be expected to reach the aquatic environment due its widespread use and its physico-chemical properties. TMDD has previously been detected in several rivers of Germany with concentrations up to 2.5 µg/L. In the United States, TMDD was also detected in drinking water. However, detailed studies about its presence and distribution in the aquatic environment have not been carried out so far. The aim of the present study was the analysis of the spatial and temporal concentration variations of TMDD in the river Rhine at the Rheingütestation Worms (443.3 km). Moreover, the transported load in the Rhine was investigated during two entire days and 7 weeks between November 2007 and January 2008.
Materials and methods: The sampling was carried out at three different sampling points across the river. Sampling point MWL1 is located in the left part of the river, MWL2 in the middle part, and MWL4 in the right part. One more sampling site (MWL3) was run by the monitoring station until the end of 2006, but was put out of service due to financial constrains. The water at the left side of the river Rhine (MWL1) is influenced by sewage from a big chemical plant in Ludwigshafen and by the sewage water from this city. The water at the right side of the river Rhine (MWL4) is largely composed of the water inflow from river Neckar, discharging into Rhine 14.9 km upstream from the sampling point and of communal and industrial wastewater from the city Mannheim. The water from the middle of the river (MWL2) is largely composed of water from the upper Rhine. Water samples were collected in 1-L bottles by an automatic sampler. The water samples were concentrated by use of solid-phase extraction (SPE) using Bond Elut PPL cartridges and quantified by use of gas chromatography-mass spectrometry (GC-MS). The quantification was carried out with the internal standard method. Based on these results, concentration variations were determined for the day profiles and week profiles. The total number of analyzed samples was 219.
Results: The results of this study provide information on the temporal concentration variability of TMDD in river Rhine in a cross section at one particular sampling point (443.3 km). TMDD was detected in all analyzed water samples at high concentrations. The mean concentrations during the 2 days were 314 ng/L in MWL1, 246 ng/L in MWL2, and 286 ng/L in MWL4. The variation of concentrations was low in the day profiles. In the week profiles, a trend of increasing TMDD concentrations was detected particularly in January 2008, when TMDD concentrations reached values up to 1,330 ng/L in MWL1. The mean TMDD concentrations during the week profiles were 540 ng/L in MWL1, 484 ng/L in MWL2, and 576 ng/L in MWL4. The loads of TMDD were also determined and revealed to be comparable in all three sections of the river. The chemical plant located at the left side of the Rhine is not contributing additional TMDD to the river. The load of TMDD has been determined to be 62.8 kg/d on average during the entire period. By extrapolation of data obtained from seven week profiles the annual load was calculated to 23 t/a.
Discussion: The permanent high TMDD concentrations during the investigation period indicate an almost constant discharge of TMDD into the river. This observation argues for effluents of municipal wastewater treatment plants as the most likely source of TMDD in the river. Another possible source might be the degradation of ethoxylates of TMDD (Surfynol® series 400), in the WWTPs under formation of TMDD followed by discharge into the river. TMDD has to be considered as a high-production-volume (HPV) chemical based on the high concentrations found in this study. In the United States, TMDD is already in the list of HPV chemicals from the Environmental Protection Agency (EPA). However, the amount of TMDD production in Europe is unknown so far and also the biodegradation rates of TMDD in WWTPs have not been investigated.
Conclusions: TMDD was found in high concentrations during the entire sampling period in the Rhine river at the three sampling points. During the sampling period, TMDD concentrations remained constant in each part of the river. These results show that TMDD is uniformly distributed in the water collected at three sampling points located across the river. ‘Waves’ of exceptionally high concentrations of TMDD could not be detected during the sampling period. These results indicate that the effluents of WWTPs have to be considered as the most important sources of TMDD in river Rhine.
Recommendations and perspectives: Based also on the occurrence of TMDD in different surface waters of Germany with concentrations up to 2,500 ng/L and its presence in drinking water in the USA, more detailed investigations regarding its sources and distribution in the aquatic environment are required. Moreover, the knowledge with respect to its ecotoxicity and its biodegradation pathway is scarce and has to be gained in more detail. Further research is necessary to investigate the rate of elimination of TMDD in municipal and industrial wastewater treatment plants in order to clarify the degradation rate of TMDD and to determine to which extent effluents of WWTPs contribute to the input of TMDD into surface waters. Supplementary studies are needed to clarify whether the ethoxylates of TMDD (known as Surfynol 400® series) are hydrolyzed in the aquatic environment resulting in formation of TMDD similar to the well known cleavage of nonylphenol ethoxylates into nonylphenols. The stability of TMDD under anaerobic conditions in groundwater is also unknown and should be studied.
In wissenschaftlichen als auch administrativen Kontexten ist die Überzeugung weit verbreitet, es müssten neue Steuerungsmodelle und Steuerungsinstrumente im Schulwesen implementiert werden. Die Einführung neuer Steuerungsmodelle und Steuerungsinstrumente wird dabei entweder am Vorbild anderer Länder ausgerichtet, so
z. B. bei der Einrichtung von Qualitätsagenturen, oder es wird an Steuerungsinstrumente angeknüpft, die auch in Deutschland eine Tradition haben, wie bspw. das Zentralabitur. Für diese unterschiedlichen Maßnahmen hat sich in den letzten Jahren der Begriff der Qualitätssicherung bzw. Qualitätsentwicklung eingebürgert. Man kann die im Schulwesen ergriffenen Maßnahmen aber auch in einen weiteren Kontext stellen und neue Steuerungsmodelle im Zusammenhang mit allgemeinen Modernisierungsbestrebungen im Staats- und Verwaltungswesen betrachten. Diese Theorieansätze, die unter dem Oberbegriff New Public Management populär geworden sind, eröffnen den begrifflich-analytischen Rahmen, der institutionelle Wandlungsprozesse verständlich macht. Die vorliegende Arbeit geht der Frage nach, ob und wie sich ein Funktionswandel der (unteren) staatlichen Schulaufsicht von einem bürokratischen Steuerungssystem zu einem schulischen Unterstützungssystem abzeichnet. Dabei geht die vorliegende Arbeit von der Grundannahme aus, dass die staatliche Schulaufsicht als Teil des Staats- und Verwaltungswesens betrachtet werden muss, wenn man eine realistische Einschätzung darüber gewinnen möchte, welche institutionellen Veränderungsprozesse sich aktuell vollziehen und welche Entwicklungsspielräume in Zukunft bestehen. Dieser Frage soll nicht nur theoretisch, sondern auch empirisch nachgegangen werden. Um dem Forschungsgegenstand gerecht zu werden, wird ein akteursorientierter Ansatz gewählt. Da man es bei vielen Reformen im öffentlichen Sektor mit einer Gemengelage von Interessen unterschiedlichster Akteure zu tun hat, bietet eine akteursorientierte Perspektive den Vorteil, institutionelle Wandlungsprozesse in einem gesellschaftlichen
System auf makro- und mikropolitischer Ebene greifbar zu machen. Im ersten Teil der vorliegenden Arbeit werden die Modernisierungsansätze vorgestellt, die unter dem Begriff New Public Management firmieren. Ergänzend dazu wird der aktuelle wissenschaftliche Diskussionsstand in Politik- und Sozialwissenschaft skizziert. Es folgt eine Beschreibung erster Wirkungen neuer Steuerungsformen in
Deutschland und im anglo-amerikanischen Raum sowie konkret am Fallbeispiel der Schulaufsichtsbehörden in England. Abschließend wird der Diskurswechsel von New Public Management zu New Public Governance beschrieben. Der Diskurs zu New Public Governance betont die Rolle von Akteuren in Modernisierungsprozessen. Der zweite Teil stellt überblicksartig die Institutionalgeschichte der staatlichen
Schulaufsicht dar, die als wichtigste Determinante für weitergehende Reformbestrebungen gelten kann. Es folgt die Darstellung aktueller Entwicklungstendenzen im schulischen Steuerungssystem. Dabei können die Neu-Gründung von Qualitätsagenturen, die Einführung von Schulinspektionen, die Bestimmung strategischer Ziele im Schulsystem und die Etablierung von Berichtssystemen als ein Lernen aus internationalen Entwicklungen beschrieben werden. Die anschließende vertiefte Diskussion von Managementansätzen macht deutlich, dass die Möglichkeiten, die untere Schulaufsicht zu einem schulischen Unterstützungssystem zu entwickeln, noch nicht ausgeschöpft sind. Es wird dahingehend argumentiert, dass die Managementansätze als ein Professionalisierungsimpuls für das Steuerungssystem gelten können: Anspruchsvolle Aufgaben im system monitoring und im Bereich der Schulentwicklung kann die untere Schulaufsicht nur auf der Basis breiten, sozialwissenschaftlichen Wissens gerecht werden. Im dritten Teil wird konkret am Beispiel der unteren Schulaufsicht in Hessen
herausgearbeitet, welche Funktionen die staatliche Schulaufsicht wahrnimmt und wie sich ein möglicher Funktionswandel auf die Arbeit der unteren Schulaufsichtsebene auswirkt. Dazu wird Interviewmaterial genutzt, dass in Gruppendiskussionen mit fachlichen Schulaufsichtsbeamten in Hessen gewonnen wurde. Um einen umfassenderen Überblick über aktuelle Entwicklungstendenzen zu erhalten, wird ergänzend dazu Material aus Experteninterviews mit Vertretern der oberen Schulaufsicht hinzugezogen. Im Rückgriff auf die Daten eines Evaluationsprojekts am Deutschen Institut für Internationale Pädagogische Forschung(DIPF), werden Leistungen und Funktionalität der unteren Schulaufsicht aus der Perspektive der fachlichen Schulaufsichtsbeamten bewertet: Zum einen aus der Binnensicht interner Organisation und zum anderen in der Außendimension als Steuerungsinstanz im Schulsystem. Der zusätzliche Vergleich mit den Schulleiterdaten soll Auskunft darüber geben, inwieweit die Bewertungen hinsichtlich derzeitiger und zukünftiger Funktionen konvergent bzw. divergent sind. Im vierten Teil werden die Ergebnisse der Untersuchung mit den theoretischen Vorüberlegungen aus den ersten beiden Kapiteln verknüpft. Es werden Entwicklungsmöglichkeiten des schulischen Steuerungssystems aufgezeigt und weitergehende Evaluationsansätze nach Maßgabe der Grundlagentheorien diskutiert.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
An der Universität Frankfurt entwickelte Online-Self-Assessment-Verfahren für die Studiengänge Psychologie und Informatik sollen Studieninteressierten noch vor Studienbeginn auf der Basis von Selbsterkundungsmaßnahmen und Tests eine Rückmeldung über ihre eigenen Fähigkeiten, Motive, personalen Kompetenzen und Interessen mit Blick auf den jeweiligen Studiengang geben. Sowohl die Befunde zur psychometrischen Güte der Verfahren als auch jene zur prognostischen Validität lassen ihren Einsatz zur Feststellung studienrelevanter Kompetenzen als geeignet erscheinen. Da die erfassten Kompetenzen und Merkmale substanzielle Beziehun-gen zu Studienleistungen aufweisen, könnten die Informationen über individuelle Stärken zur Wahl eines geeigneten Studienganges genutzt werden; Schwächen hingegen könnten frühzeitig Hinweise für geeignete Fördermaßnahmen liefern.
In the last decade, several sophisticated and accurate imaging methods such as positron emission tomography have been developed in order to evaluate malignant potential in enlarged mediastinal lymph nodes. This case illustrates an unusual presentation of sarcoidosis that mimicked lymphatic metastases of non small cell lung carcinoma. The reported high specificity and sensitivity of positron emission tomography-Computer Tomography regarding mediastinal staging could lead in same cases of false positives to a delaying of stage adapted therapy of non small cell lung carcinoma, showing that despite the recent advances of imaging techniques, such as positron emission tomography-computer tomography, several limitations of this imaging technique are still existing.
The human immunodeficiency virus (HIV) had spread unrecognized in the human population as sexually transmitted disease and was finally identified by its disease AIDS in 1981. Even after the isolation of the causative agent in 1983, the burden and death rate of AIDS accelerated worldwide especially in young people despite the confection of new drugs capable to inhibit virus replication since 1997. However, at least in industrialised countries, this trend could be reversed by the introduction of combination therapy strategies. The design of new drugs is on going; besides the inhibition of the three enzymes of HIV for replication and maturation (reverse transcriptase, integrase and protease), further drugs inhibits fusion of viral and cellular membranes and virus maturation. On the other hand, viral diagnostics had been considerably improved since the emergence of HIV. There was a need to identify infected people correctly, to follow up the course of immune reconstitution of patients by measuring viral load and CD4 cells, and to analyse drug escape mutations leading to drug resistance. Both the development of drugs and the refined diagnostics have been transferred to the treatment of patients infected with hepatitis B virus (HBV) and hepatitis C virus (HCV). This progress is not completed; there are beneficial aspects in the response of the scientific community to the HIV burden for the management of other viral diseases. These aspects are described in this contribution. Further aspects as handling a stigmatising disease, education of self-responsiveness within sexual relationships, and ways for confection of a protective vaccine are not covered.
The 99th Annual Meeting of the Geologische Vereinigung (GV) and International Conference on Earth Control on Planetary Life and Environment, held in October 2009 at the Geosciences Centre of the Georg-August-Universität Göttingen, brings together researchers from all fields of Earth Sciences and beyond to shape an attractive interdisciplinary program on the geological history of Planet Earth and its control over and interaction with biological evolution, development of habitats, environmental and climate change as well as history and culture of Homo sapiens. This volume contains the abstracts of invited keynote lectures as well as all oral and poster presentations.
In this work we present the setup and first tests of our new BIO IN detector. This detector is designed to classify atmospheric ice nuclei (IN) for their biological content. Biological material is identified via its auto-fluorescence (intrinsic fluorescence) after irradiation with UV radiation. Ice nuclei are key substances for precipitation development via the Bergeron–Findeisen process. The level of scientific knowledge regarding origin and climatology (temporal and spatial distribution) of IN is very low. Some biological material is known to be active as IN even at relatively high temperatures of up to –2°C (e.g. pseudomonas syringae bacteria). These biological IN could have a strong influence on the formation of clouds and precipitation. We have designed the new BIO IN sensor to analyze the abundance of IN of biological origin. The instrument will be flown on one of the first missions of the new German research aircraft ''HALO'' (High Altitude and LOng Range).
Active chlorine species play a dominant role in the catalytic destruction of stratospheric ozone in the polar vortices during the late winter and early spring seasons. Recently, the correct understanding of the ClO dimer cycle was challenged by the release of new laboratory absorption cross sections (Pope et al., 2007) yielding significant model underestimates of observed ClO and ozone loss (von Hobe et al., 2007). Under this aspect, Arctic stratospheric limb emission measurements carried out by the balloon version of the Michelson Interferometer for Passive Atmospheric Sounding (MIPAS-B) from Kiruna (Sweden) on 11 January 2001 and 20/21 March 2003 have been reanalyzed with regard to the chlorine reservoir species ClONO2 and the active species, ClO and ClOOCl (Cl2O2). New laboratory measurements of IR absorption cross sections of ClOOCl for various temperatures and pressures allowed for the first time the retrieval of ClOOCl mixing ratios from remote sensing measurements. High values of active chlorine (ClOx) of roughly 2.3 ppbv at 20 km were observed by MIPAS-B in the cold mid-winter Arctic vortex on 11 January 2001. While nighttime ClOOCl shows enhanced values of nearly 1.1 ppbv at 20 km, ClONO2 mixing ratios are less than 0.1 ppbv at this altitude. In contrast, high ClONO2 mixing ratios of nearly 2.4 ppbv at 20 km have been observed in the late winter Arctic vortex on 20 March 2003. No significant ClOx amounts are detectable on this date since most of the active chlorine has already recovered to its main reservoir species ClONO2. The observed values of ClOx and ClONO2 are in line with the established chlorine chemistry. The thermal equilibrium constants between the dimer formation and its dissociation, as derived from the balloon measurements, are on the lower side of reported data and in good agreement with values recommended by von Hobe et al. (2007). Calculations with the ECHAM/MESSy Atmospheric Chemistry model (EMAC) using established kinetics show similar chlorine activation and deactivation, compared to the measurements in January 2001 and March 2003, respectively.
wo different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5 μm up to 20 μm were separated from large ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time of Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual ice residues that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 particles. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust particles were strongly enhanced in the ice particle residues. 57% of the SPLAT spectra from ice residues were dominated by signatures from mineral compounds, and 78% of the ATOFMS spectra. Sulfate and nitrate containing particles were strongly depleted in the ice residues. Sulfate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Tracer measurements in the tropical tropopause layer during the AMMA/SCOUT-O3 aircraft campaign
(2009)
We present airborne in situ measurements made during the AMMA (African Monsoon Multidisciplinary Analysis)/SCOUT-O3 campaign between 31 July and 17 August 2006 on board the M55 Geophysica aircraft, based in Ouagadougou, Burkina Faso. CO2 and N2O were measured with the High Altitude Gas Analyzer (HAGAR), CO was measured with the Cryogenically Operated Laser Diode (COLD) instrument, and O3 with the Fast Ozone ANalyzer (FOZAN). We analyze the data obtained during five local flights to study the dominant transport processes controlling the tropical tropopause layer (TTL) above West-Africa: deep convection up to the level of main convective outflow, overshooting of deep convection, horizontal inmixing across the subtropical tropopause, and horizontal transport across the subtropical barrier. Except for the flight of 13 August, distinct minima in CO2 indicate convective outflow of boundary layer air in the TTL. The CO2 profiles show that the level of main convective outflow was mostly located between 350 and 360 K, and for 11 August reached up to 370 K. While the CO2 minima indicate quite significant convective influence, the O3 profiles suggest that the observed convective signatures were mostly not fresh, but of older origin. When compared with the mean O3 profile measured during a previous campaign over Darwin in November 2005, the O3 minimum at the main convective outflow level was less pronounced over Ouagadougou. Furthermore O3 mixing ratios were much higher throughout the whole TTL and, unlike over Darwin, rarely showed low values observed in the regional boundary layer. Signatures of irreversible mixing following overshooting of convective air were scarce in the tracer data. Some small signatures indicative of this process were found in CO2 profiles between 390 and 410 K during the flights of 4 and 8 August, and in CO data at 410 K on 7 August. However, the absence of expected corresponding signatures in other tracer data makes this evidence inconclusive, and overall there is little indication from the observations that overshooting convection has a profound impact on TTL composition during AMMA. We find the amount of photochemically aged air isentropically mixed into the TTL across the subtropical tropopause to be not significant. Using the N2O observations we estimate the fraction of aged extratropical stratospheric air in the TTL to be 0.0±0.1 up to 370 K during the local flights, increasing above this level to 0.2±0.15 at 390 K. The subtropical barrier, as indicated by the slope of the correlation between N2O and O3 between 415 and 490 K, does not appear as a sharp border between the tropics and extratropics, but rather as a gradual transition region between 10 and 25° N latitude where isentropic mixing between these two regions may occur.
Processes occurring in the tropical upper troposphere and lower stratosphere (UT/LS) are of importance for the global climate, for the stratospheric dynamics and air chemistry, and they influence the global distribution of water vapour, trace gases and aerosols. The mechanisms underlying cloud formation and variability in the UT/LS are of scientific concern as these still are not adequately described and quantified by numerical models. Part of the reasons for this is the scarcity of detailed in-situ measurements in particular from the Tropical Transition Layer (TTL) within the UT/LS. In this contribution we provide measurements of particle number densities and the amounts of non-volatile particles in the submicron size range present in the UT/LS over Southern Brazil, West Africa, and Northern Australia. The data were collected in-situ on board of the Russian high altitude research aircraft M-55 "Geophysica" using the specialised COPAS (COndensation PArticle counting System) instrument during the TROCCINOX (Araçatuba, Brazil, February 2005), the SCOUT-O3 (Darwin, Australia, December 2005), and SCOUT-AMMA (Ouagadougou, Burkina Faso, August 2006) campaigns. The vertical profiles obtained are compared to those from previous measurements from the NASA DC-8 and NASA WB-57F over Costa Rica and other tropical locations between 1999 and 2007. The number density of the submicron particles as function of altitude was found to be remarkably constant (even back to 1987) over the tropical UT/LS altitude band such that a parameterisation suitable for models can be extracted from the measurements. At altitudes corresponding to potential temperatures above 430 K a slight increase of the number densities from 2005/2006 results from the data in comparison to the 1987 to 2007 measurements. The origins of this increase are unknown. By contrast the data from Northern hemispheric mid latitudes do not exhibit such an increase between 1999 and 2006. Vertical profiles of the non-volatile fraction of the submicron particles were also measured by a COPAS channel and are presented here. The resulting profiles of the non-volatile number density fraction show a pronounced maximum of 50% in the tropical TTL over Australia and West Africa. Below and above this fraction is much lower attaining values of 10% and smaller. In the lower stratosphere the fine particles mostly consist of sulphuric acid which is reflected in the low numbers of non-volatile residues measured by COPAS. Without detailed chemical composition measurements the reason for the increase of non-volatile particle fractions cannot yet be given. The long distance transfer flights to Brazil, Australia and West-Africa were executed during a time window of 17 months within a period of relative volcanic quiescence. Thus the data measured during these transfers represent a "snapshot picture" documenting the status of a significant part of the global UT/LS aerosol (with sizes below 1 μm) at low concentration levels 15 years after the last major (i.e., the 1991 Mount Pinatubo) eruption. The corresponding latitudinal distributions of the measured particle number densities are also presented in this paper in order to provide input on the UT/LS background aerosol for modelling purposes.
Current atmospheric models do not include secondary organic aerosol (SOA) production from gas-phase reactions of polycyclic aromatic hydrocarbons (PAHs). Recent studies have shown that primary semivolatile emissions, previously assumed to be inert, undergo oxidation in the gas phase, leading to SOA formation. This opens the possibility that low-volatility gas-phase precursors are a potentially large source of SOA. In this work, SOA formation from gas-phase photooxidation of naphthalene, 1-methylnaphthalene (1-MN), 2-methylnaphthalene (2-MN), and 1,2-dimethylnaphthalene (1,2-DMN) is studied in the Caltech dual 28-m3 chambers. Under high-NOx conditions and aerosol mass loadings between 10 and 40 μg m, the SOA yields (mass of SOA per mass of hydrocarbon reacted) ranged from 0.19 to 0.30 for naphthalene, 0.19 to 0.39 for 1-MN, 0.26 to 0.45 for 2-MN, and constant at 0.31 for 1,2-DMN. Under low-NOx conditions, the SOA yields were measured to be 0.73, 0.68, and 0.58, for naphthalene, 1-MN, and 2-MN, respectively. The SOA was observed to be semivolatile under high-NOx conditions and essentially nonvolatile under low-NOx conditions, owing to the higher fraction of ring-retaining products formed under low-NOx conditions. When applying these measured yields to estimate SOA formation from primary emissions of diesel engines and wood burning, PAHs are estimated to yield 3–5 times more SOA than light aromatic compounds. PAHs can also account for up to 54% of the total SOA from oxidation of diesel emissions, representing a potentially large source of urban SOA.
During a 4-week run in October–November 2006, a pilot experiment was performed at the CERN Proton Synchrotron in preparation for the CLOUD1 experiment, whose aim is to study the possible influence of cosmic rays on clouds. The purpose of the pilot experiment was firstly to carry out exploratory measurements of the effect of ionising particle radiation on aerosol formation from trace H2SO4 vapour and secondly to provide technical input for the CLOUD design. A total of 44 nucleation bursts were produced and recorded, with formation rates of particles above the 3 nm detection threshold of between 0.1 and 100 cm−3s−1, and growth rates between 2 and 37 nm h−1. The corresponding H2SO4 concentrations were typically around 106 cm−3 or less. The experimentally-measured formation rates and H2SO4 concentrations are comparable to those found in the atmosphere, supporting the idea that sulphuric acid is involved in the nucleation of atmospheric aerosols. However, sulphuric acid alone is not able to explain the observed rapid growth rates, which suggests the presence of additional trace vapours in the aerosol chamber, whose identity is unknown. By analysing the charged fraction, a few of the aerosol bursts appear to have a contribution from ion-induced nucleation and ion-ion recombination to form neutral clusters. Some indications were also found for the accelerator beam timing and intensity to influence the aerosol particle formation rate at the highest experimental SO2 concentrations of 6 ppb, although none was found at lower concentrations. Overall, the exploratory measurements provide suggestive evidence for ion-induced nucleation or ion-ion recombination as sources of aerosol particles. However in order to quantify the conditions under which ion processes become significant, improvements are needed in controlling the experimental variables and in the reproducibility of the experiments. Finally, concerning technical aspects, the most important lessons for the CLOUD design include the stringent requirement of internal cleanliness of the aerosol chamber, as well as maintenance of extremely stable temperatures (variations below 0.1°C).
Global-scale information on natural river flows and anthropogenic river flow alterations is required to identify areas where aqueous ecosystems are expected to be strongly degraded. Such information can support the identification of environmental flow guidelines and a sustainable water management that balances the water demands of humans and ecosystems. This study presents the first global assessment of the anthropogenic alteration of river flow regimes by water withdrawals and dams, focusing in particular on the change of flow variability. Six ecologically relevant flow indicators were quantified using an improved version of the global water model WaterGAP. WaterGAP simulated, with a spatial resolution of 0.5 degree, river discharge as affected by human water withdrawals and dams, as well as naturalized discharge without this type of human interference. Mainly due to irrigation, long-term average river discharge and statistical low flow Q90 (monthly river discharge that is exceeded in 9 out of 10 months) have decreased by more than 10% on one sixth and one quarter of the global land area (excluding Antarctica and Greenland), respectively. Q90 has increased significantly on only 5% of the land area, downstream of reservoirs. Due to both water withdrawals and dams, seasonal flow amplitude has decreased significantly on one sixth of the land area, while interannual variability has increased on one quarter of the land area mainly due to irrigation. It has decreased on only 8% of the land area, in areas with little consumptive water use that are downstream of dams. Areas most affected by anthropogenic river flow alterations are the western and central USA, Mexico, the western coast of South America, the Mediterranean rim, Southern Africa, the semi-arid and arid countries of the Near East and Western Asia, Pakistan and India, Northern China and the Australian Murray-Darling Basin, as well as some Arctic rivers. Due to a large number of uncertainties related e.g. to the estimation of water use and reservoir operation rules, the analysis is expected to provide only first estimates of river flow alterations that should be refined in the future.
Pollen-based climate reconstructions were performed on two high-resolution pollen – marines cores from the Alboran and Aegean Seas in order to unravel the climatic variability in the coastal settings of the Mediterranean region between 15 000 and 4000 cal yrs BP (the Lateglacial, and early to mid-Holocene). The quantitative climate reconstructions for the Alboran and Aegean Sea records focus mainly on the reconstruction of the seasonality changes (temperatures and precipitation), a crucial parameter in the Mediterranean region. This study is based on a multi-method approach comprising 3 methods: the Modern Analogues Technique (MAT), the recent Non-Metric Multidimensional Scaling/Generalized Additive Model method (NMDS/GAM) and Partial Least Squares regression (PLS). The climate signal inferred from this comparative approach confirms that cold and dry conditions prevailed in the Mediterranean region during the Heinrich event 1 and Younger Dryas periods, while temperate conditions prevailed during the Bølling/Allerød and the Holocene. Our records suggest a West/East gradient of decreasing precipitation across the Mediterranean region during the cooler Late-glacial and early Holocene periods, similar to present-day conditions. Winter precipitation was highest during warm intervals and lowest during cooling phases. Several short-lived cool intervals (i.e., Older Dryas, another oscillation after this one (GI-1c2), Gerzensee/Preboreal Oscillations, 8.2 ka event, Bond events) connected to the North Atlantic climate system are documented in the Alboran and Aegean Sea records indicating that the climate oscillations associated with the successive steps of the deglaciation in the North Atlantic area occurred in both the western and eastern Mediterranean regions. This observation confirms the presence of strong climatic linkages between the North Atlantic and Mediterranean regions.
Abrupt climate changes of the last deglaciation detected in a western Mediterranean forest record
(2009)
Abrupt changes in Western Mediterranean climate during the last deglaciation (20 to 6 cal ka BP) are detected in marine core MD95-2043 (Alboran Sea) through the investigation of high-resolution pollen data and pollen-based climate reconstructions by the modern analogue technique (MAT) for annual precipitation (Pann) and mean temperatures of the coldest and warmest months (MTCO and MTWA). Changes in temperate Mediterranean forest development and composition and MAT reconstructions indicate major climatic shifts with parallel temperature and precipitation changes at the onsets of Heinrich stadial 1 (equivalent to the Oldest Dryas), the Bölling-Allerød (BA), and the Younger Dryas (YD). Multi-centennial-scale oscillations in forest development occurred throughout the BA, YD, and early Holocene. Shifts in vegetation composition and (Pann reconstructions indicate that forest declines occurred during dry, and generally cool, episodes centred at 14.0, 13.3, 12.9, 11.8, 10.7, 10.1, 9.2, 8.3 and 7.4 cal ka BP. The forest record also suggests multiple, low-amplitude Preboreal (PB) climate oscillations, and a marked increase in moisture availability for forest development at the end of the PB at 10.6 cal ka BP. Dry atmospheric conditions in the Western Mediterranean occurred in phase with Lateglacial events of high-latitude cooling including GI-1d (Older Dryas), GI-1b (Intra-Allerød Cold Period) and GS-1 (YD), and during Holocene events associated with high-latitude cooling, meltwater pulses and N. Atlantic ice-rafting. A possible climatic mechanism for the recurrence of dry intervals and an opposed regional precipitation pattern with respect to Western-central Europe relates to the dynamics of the westerlies and the prevalence of atmospheric blocking highs. Comparison of radiocarbon and ice-core ages for well-defined climatic transitions in the forest record suggests possible enhancement of marine reservoir ages in the Alboran Sea by 200 years (surface water age 600 years) during the Lateglacial.
George Orwells Roman 1984 aus dem Jahre 1949 gilt gemeinhin als einer der Klassiker dystopischer Literatur. Auch wenn das tatsächliche Jahr 1984 inzwischen Vergangenheit ist, hat Orwell’s Entwurf einer repressiven, totalitären Gesellschaft bis heute nichts an Aktualität eingebüßt. Konzepte wie „Big Brother“ oder „doublethink“ sind in unseren alltäglichen Wortschatz übergegangen, und Orwells Roman bildet auch weiterhin das Vorbild für viele aktuelle Dystopien. Doch nicht nur Orwells Darstellung eines düsteren, futuristischen Überwachungsstaates, in dem eine Gruppe von Machtinhabern versucht, sowohl die Vergangenheit als auch die Gedanken der Bevölkerung zu steuern, verkörpert wichtige Leitmotive dystopischer Literatur. Auch die Rolle und Anwendung von Sprache in dieser Zukunftsvision hat nachhaltig seine Spuren in dystopischer Literatur hinterlassen, auch wenn diese Rolle in der Forschungsliteratur häufig übersehen wird. Zwar befassen sich regelmäßig Kritiker mit dem Aspekt von Sprache in Romanen wie 1984 oder Aldous Huxleys Brave New World, allerdings gibt es kaum komparative Studien, die Sprache als ein eigenes, zentrales dystopisches Motiv sehen, sondern Sprache in der Regel in andere Aspekte subsumieren.
George Orwells Roman 1984 aus dem Jahre 1949 gilt gemeinhin als einer der Klassiker dystopischer Literatur. Auch wenn das tatsächliche Jahr 1984 inzwischen Vergangenheit ist, hat Orwell’s Entwurf einer repressiven, totalitären Gesellschaft bis heute nichts an Aktualität eingebüßt. Konzepte wie „Big Brother“ oder „doublethink“ sind in unseren alltäglichen Wortschatz übergegangen, und Orwells Roman bildet auch weiterhin das Vorbild für viele aktuelle Dystopien. Doch nicht nur Orwells Darstellung eines düsteren, futuristischen Überwachungsstaates, in dem eine Gruppe von Machtinhabern versucht, sowohl die Vergangenheit als auch die Gedanken der Bevölkerung zu steuern, verkörpert wichtige Leitmotive dystopischer Literatur. Auch die Rolle und Anwendung von Sprache in dieser Zukunftsvision hat nachhaltig seine Spuren in dystopischer Literatur hinterlassen, auch wenn diese Rolle in der Forschungsliteratur häufig übersehen wird. Zwar befassen sich regelmäßig Kritiker mit dem Aspekt von Sprache in Romanen wie 1984 oder Aldous Huxleys Brave New World, allerdings gibt es kaum komparative Studien, die Sprache als ein eigenes, zentrales dystopisches Motiv sehen, sondern Sprache in der Regel in andere Aspekte subsumieren.
Die vorliegende Arbeit, befasst sich mit genau dieser Unzulänglichkeit. Anhand von acht dystopischen Romanen in Englischer Sprache, die allesamt in den letzten 80 Jahren erschienen sind, wird die Rolle von Sprache herausgearbeitet, und ihre Relevanz für das Genre der Dystopie deutlich gemacht. Die verwendeten Werke sind, in chronologischer Reihenfolge: Aldous Huxleys Brave New World (1932), George Orwells 1984 (1949), Anthony Burgess‘ Clockwork Orange (1960), Russell Hobans Riddley Walker (1980), Suzette Haden Elgins Native Tongue (1984) und The Judas Rose (1987), Margaret Atwoods The Handmaid’s Tale (1985), sowie Will Selfs The Book of Dave (2006). Die Romane sind bewusst gewählt, um einen größtmöglichen Rahmen und Zeitraum abzudecken, der zudem unterschiedliche Strömungen und Traditionen innerhalb des Genres der dystopischen Literatur aufgreift.
Bevor die eigentliche Textanalyse beginnt, werden zunächst Entstehung und Charakteristika des dystopischen Konzeptes erläutert. Die Studie blickt kurz auf die Entwicklung der Utopie, dem Gegenkonzept von Dystopie, von der Klassik zur Moderne und verfolgt anschließend die Entstehung anti-utopischer Tendenzen bis hin zum Auftreten der Dystopie, einer speziellen Unterkategorie anti-utopischer Literatur, im späten 19. Jahrhundert. Darauf basierend werden einige der wichtigsten Leitmotive vorgestellt, die im weiteren Verlauf auch in Verbindung mit Sprache eine maßgebliche Rolle spielen. Zu guter Letzt wird auch auf die Problematik der Organisation und Klassifikation von Sprache in der folgenden Analyse eingegangen. Nicht nur ist Sprache an sich ein weitreichender Begriff; auch die Verwendung von Sprache in den einzelnen Romanen ist sehr unterschiedlich geprägt. So sind beispielsweise Romane wie Riddley Walker, Clockwork Orange und Book of Dave komplett oder zu weiten Teilen in einer eigenen, fiktiven Sprache verfasst, die verfügt, dass der Leser seinen Interpretationsrahmen anpassen muss. In anderen Romane dagegen, wie in Brave New World, The Handmaid’s Tale oder 1984, spielt Sprache dagegen fast ausschließlich auf der Handlungsebene eine Rolle. Eine umfangreiche Analyse erfordert es, alle Aspekte des Sprachgebrauchs abzudecken, auch wenn der begrenzte Rahmen dieser Arbeit es nur zulässt, die wichtigsten Aspekte in dieser Hinsicht abzudecken.
Aus den unterschiedlichen Formen des Sprachgebrauch, in dem sich auf Sprache sowohl als Schrift- wie Sprechmedium bezogen wird, geht auch der Aufbau der Hauptanalyse hervor: Im ersten Teil wird auf die Rolle von Sprache auf der Handlungsebene eingegangen. Es wird, unter Zuhilfenahme von Michel Foucaults Diskurstheorie, gezeigt, wie Sprache auf der einen Seite von einer autoritären Macht oder Institution verwendet wird, um bestimmte Diskurse durchzusetzen, die Stabilität der dystopischen Gesellschaft zu garantieren und das Äußern von kritischen Gedanken abzuwenden. Auf der anderen Seite, analog zu Foucaults Diskurs-Begriff, wonach ein Diskurs immer auch seinen Widerstand produziert, wird Sprache in einigen Romanen jedoch als gegenteiliges Medium eingesetzt; als ein Medium zur Befreiung und Wahrung der Individualität. Die wechselseitige Beziehung wird ausgiebig analysiert. Im dritten Analysepunkt wird die Beziehung zwischen sozialer Klasse und Status aufgedeckt.
Die zweite Hälfte der Studie wendet sich von der Handlungsebene ab und konzentriert sich auf stilistische und strukturelle Aspekte. Es wird gezeigt, wie Sprache von den Autoren benutzt wird, um die dystopische Erfahrung zu verstärken, wie die Einbindung von fiktiven Sprachen, Para- und Intertextualität sowie Namensgebung als stilistisches Mittel verwendet wird, das im Gegenzug zwei der wichtigsten Charakteristika dystopischer Literatur hervorhebt: Zum einen die didaktische Absicht, mit der Dystopien vor einer möglichen (und unweigerlich schlechteren) Zukunft warnen, falls keine Gegenmaßnahmen ergriffen werden, und zum anderen, wie Dystopien gezielt Aspekte aus der Zeit der Autoren aufgreifen, und diese in den Rahmen der Handlungsstruktur extrapolieren. Basierend auf dieser Annahme werden zum Abschluss einige Sprach- und kulturtheoretische Ideen aufgegriffen, die ihren Weg in die einzelnen Werke gefunden haben, und somit einen eigenen Diskurs von Sprache im dystopischen Roman ermöglichen.
Zum Abschluss der Arbeit werden die Ergebnisse aufgegriffen und im Hinblick auf eine mögliche Repositionierung von Sprache in der Forschung des dystopischen Romanes evaluiert. Es werden drei bestimmte Funktionen von Sprachgebrauch anhand der Analyse erschlossen und abschließend vorgeschlagen, Sprache zukünftig als eigenes Motiv innerhalb dystopischer Literatur zu sehen, da der Aspekt von Sprache in den hier diskutierten Texten unweigerlich mit der Absicht und Form der Dystopie in Einklang steht.
In this paper, similarity hypotheses for the atmospheric surface layer (ASL) are reviewed using nondimensional characteristic invariants, referred to as π -numbers. The basic idea of this dimensional π-invariants analysis (sometimes also called Buckingham’s π-theorem) is described in a mathematically generalized formalism. To illustrate the task of this powerful method and how it can be applied to deduce a variety of reasonable solutions by the formalized procedure of non-dimensionalization, various instances are represented that are relevant to the turbulence transfer across the ASL and prevailing structure of ASL turbulence. Within the framework of our review we consider both (a) Monin-Obukhov scaling for forced-convective conditions, and (b) Prandtl-Obukhov-Priestley scaling for free-convective conditions.It is shown that in the various instances of Monin-Obukhov scaling generally two π-numbers occur that result in corresponding similarity functions. In contrast to that, Prandtl-Obukhov-Priestley scaling will lead to only one π number in each case usually considered as a non-dimensional universal constant. Since an explicit mathematical relationship for the similarity functions cannot be obtained from a dimensional π-invariants analysis, elementary laws of π-invariants have to be pointed out using empirical or/and theoretical findings. To evaluate empirical similarity functions usually considered within the framework flux-profile relationships, so-called integral similarity functions for momentum and sensible heat are presented and assessed on the basis of the friction velocity and the vertical component of the eddy flux densities of sensible and latent heat directly measured during the GREIV I 1974 field campaign.
Diabetic nephropathy (DN) is a major cause of end-stage renal failure worldwide. Oxidative stress has been reported to be a major culprit of the disease and increased oxidized low density lipoprotein (oxLDL) immune complexes were found in patients with DN. In this study we present evidence, that CXCL16 is the main receptor in human podocytes mediating the uptake of oxLDL. In contrast, in primary tubular cells CD36 was mainly involved in the uptake of oxLDL. We further demonstrate that oxLDL down-regulated α3-integrin expression and increased the production of fibronectin in human podocytes. In addition, oxLDL uptake induced the production of reactive oxygen species (ROS) in human podocytes. Inhibition of oxLDL uptake by CXCL16 blocking antibodies abrogated the fibronectin and ROS production and restored α3 integrin expression in human podocytes. Furthermore we present evidence that hyperglycaemic conditions increased CXCL16 and reduced ADAM10 expression in podocytes. Importantly, in streptozotocin-induced diabetic mice an early induction of CXCL16 was accompanied by higher levels of oxLDL. Finally immunofluorescence analysis in biopsies of patients with DN revealed increased glomerular CXCL16 expression, which was paralleled by high levels of oxLDL. In summary, regulation of CXCL16, ADAM10 and oxLDL expression may be an early event in the onset of DN and therefore all three proteins may represent potential new targets for diagnosis and therapeutic intervention in DN.
The manifestation of chronic back pain depends on structural, psychosocial, occupational and genetic influences. Heritability estimates for back pain range from 30% to 45%. Genetic influences are caused by genes affecting intervertebral disc degeneration or the immune response and genes involved in pain perception, signalling and psychological processing. This inter-individual variability which is partly due to genetic differences would require an individualized pain management to prevent the transition from acute to chronic back pain or improve the outcome. The genetic profile may help to define patients at high risk for chronic pain. We summarize genetic factors that (i) impact on intervertebral disc stability, namely Collagen IX, COL9A3, COL11A1, COL11A2, COL1A1, aggrecan (AGAN), cartilage intermediate layer protein, vitamin D receptor, metalloproteinsase-3 (MMP3), MMP9, and thrombospondin-2, (ii) modify inflammation, namely interleukin-1 (IL-1) locus genes and IL-6 and (iii) and pain signalling namely guanine triphosphate (GTP) cyclohydrolase 1, catechol-O-methyltransferase, μ opioid receptor (OPMR1), melanocortin 1 receptor (MC1R), transient receptor potential channel A1 and fatty acid amide hydrolase and analgesic drug metabolism (cytochrome P450 [CYP]2D6, CYP2C9).
Protein catabolism should be reduced and protein synthesis promoted with parenteral nutrion (PN). Amino acid (AA) solutions should always be infused with PN. Standard AA solutions are generally used, whereas specially adapted AA solutions may be required in certain conditions such as severe disorders of AA utilisation or in inborn errors of AA metabolism. An AA intake of 0.8 g/kg/day is generally recommended for adult patients with a normal metabolism, which may be increased to 1.2–1.5 g/kg/day, or to 2.0 or 2.5 g/kg/day in exceptional cases. Sufficient non-nitrogen energy sources should be added in order to assure adequate utilisation of AA. A nitrogen calorie ratio of 1:130 to 1:170 (g N/kcal) or 1:21 to 1:27 (g AA/kcal) is recommended under normal metabolic conditions. In critically ill patients glutamine should be administered parenterally if indicated in the form of peptides, for example 0.3–0.4 g glutamine dipeptide/kg body weight/day (=0.2–0.26 g glutamine/kg body weight/day). No recommendation can be made for glutamine supplementation in PN for patients with acute pancreatitis or after bone marrow transplantation (BMT), and in newborns. The application of arginine is currently not warranted as a supplement in PN in adults. N-acetyl AA are only of limited use as alternative AA sources. There is currently no indication for use of AA solutions with an increased content of glycine, branched-chain AAs (BCAA) and ornithine-α-ketoglutarate (OKG) in all patients receiving PN. AA solutions with an increased proportion of BCAA are recommended in the treatment of hepatic encephalopathy (III–IV).
There are special challenges in implementing parenteral nutrition (PN) in paediatric patients, which arises from the wide range of patients, ranging from extremely premature infants up to teenagers weighing up to and over 100 kg, and their varying substrate requirements. Age and maturity-related changes of the metabolism and fluid and nutrient requirements must be taken into consideration along with the clinical situation during which PN is applied. The indication, the procedure as well as the intake of fluid and substrates are very different to that known in PN-practice in adult patients, e.g. the fluid, nutrient and energy needs of premature infants and newborns per kg body weight are markedly higher than of older paediatric and adult patients. Premature infants <35 weeks of pregnancy and most sick term infants usually require full or partial PN. In neonates the actual amount of PN administered must be calculated (not estimated). Enteral nutrition should be gradually introduced and should replace PN as quickly as possible in order to minimise any side-effects from exposure to PN. Inadequate substrate intake in early infancy can cause long-term detrimental effects in terms of metabolic programming of the risk of illness in later life. If energy and nutrient demands in children and adolescents cannot be met through enteral nutrition, partial or total PN should be considered within 7 days or less depending on the nutritional state and clinical conditions.