Universitätspublikationen
Refine
Year of publication
- 2009 (613) (remove)
Document Type
- Article (180)
- Doctoral Thesis (116)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (27)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
- Magister's Thesis (7)
- diplomthesis (6)
- Periodical (5)
- Part of a Book (4)
- magisterthesis (3)
- Preprint (1)
Language
- German (367)
- English (229)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (613)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (47)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (32)
- E-Finance Lab e.V. (24)
- Informatik (24)
Diskus : Nr. 1.09
(2009)
The privatization of Old Age and Survivors Insurance and Disability Insurance was a top priority on president Bush’s domestic political agenda. Although Bush’s reform initiative has failed and president Obama has declared not to privatize social security, the system of public old age security in the United States is still in crisis, mainly because of demographic factors and the ensuing financial problems but also because of the recent and deep economic recession in the United States. This article reviews the initiative of the Bush-Administration to partially privatize social security and analyzes the main objectives behind Bush policy as well as the main arguments against and obstacles to it. By placing Bush politics of privatizing social security in a broader context of comparative welfare state reform, this article discusses the consequences of privatizing social security systems on equality and poverty, as well as on the legitimacy of the political system in general.
Die Natur unterliegt vielfältigen durch den Menschen hervorgerufenen Umweltbelastungen. Neben Veränderungen der Landnutzung oder Konsummuster stellt der anthropogen verursachte Klimawandel einen entscheidenden Einflussfaktor dar. Nicht nur der Temperaturanstieg an sich ist Auslöser für Ökosystemveränderungen, sondern auch die Folgen des Temperaturanstiegs führen zu massiven Änderungen der Biodiversität. Ökosysteme können so aus dem Gleichgewicht geraten und aufgrund starker Umweltbelastungen schließlich zusammenbrechen. Werden keine Maßnahmen zum Schutz der Biodiversität getroffen, wird es langfristig zu folgenschweren Auswirkungen kommen, die auch die Lebensgrundlage der Menschen stark gefährden. In Deutschland liegt die Verantwortung für den Erhalt der Biodiversität bei verschiedenen Ministerien und Ämtern, die eng miteinander vernetzt sind. Die zentrale Referenz der Bundesregierung stellt dabei die nationale Strategie zur biologischen Vielfalt dar.
Der vorliegende Band analysiert die Biodiversitätsstrategie und ihre Umsetzung als wichtige Diskursarena im Diskursfeld „Klimabedingte Biodiversitätsveränderungen“. Ausgehend von einer Analyse der Akteure auf Bundes- und Länderebene sowie aus Wissenschaft und Zivilgesellschaft werden wichtige gesellschaftliche Handlungsfelder und Forschungslücken ebenso aufgezeigt wie die darin erkennbaren Wissenskonflikte.
Der vorliegende Materialienband entstand im Rahmen der problemorientierten Diskursfeldanalyse zu „Klimabedingten Veränderungen der Biodiversität“. Ziel dabei ist es, prioritäre Themen und zentrale Akteure systematisch darzustellen, sowie Konfliktlinien und zukünftige Handlungsbedarfe innerhalb des Themenfeldes zu identifizieren. Das Millennium Ecosystem Assessment bildet dabei eine zentrale Diskursarena im Diskursfeld. Im Zentrum der Analyse des Millennium Ecosystem Assessments stehen wissenschaftlich beeinflusste Positionen und die Frage nach deren gesellschaftlicher Nutzung.
Es ist von wissenschaftlicher Seite unumstritten, dass die Auswirkungen des Klimawandels bereits heute die Biodiversität auf unterschiedliche Art und Weise stark beeinflussen. Der vorliegende Bericht analysiert daher den Diskurs zum Themenfeld klimabedingte Biodiversitätsveränderungen auf wissenschaftlicher Basis. Dabei werden zunächst kurz die Vorgeschichte und die zentralen Inhalte des Millennium Ecosystem Assessment skizziert. Die Darlegung und Diskussion übergreifender Themenfelder ermöglicht die Festlegung prioritärer Diskursstränge innerhalb der Diskursarena. Diese umfassen sowohl ökosystemare Aspekte als auch wirtschaftliche Handlungsfelder und forscherliche Herausforderungen. In einem weiteren Arbeitsschritt werden umstrittene Wirkungszusammenhänge sowie wissenschaftliche Forschungsbedarfe und gesellschaftliche Handlungsbedarfe erörtert.
Traditional New Keynesian models prescribe that optimal monetary policy should aim at price stability. In the absence of a labor market frictions, the monetary authority faces no unemployment/inflation trade-off. I study the design of optimal monetary policy in a framework with sticky prices and matching frictions in the labor market. Optimal policy features deviations from price stability in response to both productivity and government expenditure shocks. When the Hosios 1990 condition is not met, search externalities make the flexible price allocation unfeasible. Optimal deviations from price stability increase with workers’ bargaining power, as firms´ incentives to post vacancies fall and unemployment fluctuates above the Pareto efficient one.
Recent empirical research suggests that measures of investor sentiment have predictive power for future stock returns at intermediate and long horizons. Given that sentiment indicators are widely published, smart investors should exploit the information conveyed by the indicator and thus trigger an immediate market response to the publication of the sentiment indicator. The present paper is the first to empirically analyze whether this immediate response can be identified in the data. We use survey-based sentiment indicators from two countries (Germany and the US). Consistent with previous research we find predictability at intermediate horizons. However, the predictability in the US largely disappears after 1994. Using event study methodology we find that the publication of sentiment indicators affects market returns. The sign of this immediate response is the same as the sign of the intermediate horizon predictability. This is consistent with sentiment being related to mispricing but is inconsistent with the sentiment indicator providing information about future expected returns.
JEL-Classification: G12, G14
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
Die vorliegende Arbeit setzt sich mit dem Einfluss von Tetraquarkzuständen auf den chiralen Phasenübergang auseinander. Das Quarkmodell ist ein wirkungsvolles Instrument zum Verständnis des Verhaltens der Mesonen und Baryonen. Im Bereich von Energien unter 1:8 GeV gibt es in Bezug auf die Mesonen dennoch eine Vielzahl von Problemen. So ist bis dato nicht klar, wie sich die skalaren Resonanzen unter 1:8 GeV zusammensetzen. In der Vergangenheit wurde eine Vielzahl von Möglichkeiten diskutiert, wie beispielsweise die Existenz eines Glueballs, die von mesonischen Molekülen sowie die von Tetraquarkzuständen. Alle diese Ansätze sind mehr oder weniger in der Lage, die Phänomene bei T = 0 zu erklären. Die vorliegende Arbeit beschäftigt sich mit dem Ansatz, Tetraquarkzuständen leichte skalare Resonanzen zuzuordnen.
Im Bereich der nichtverschwindenden Temperaturen wurden durch Gitterrechnungen große Erfolge erzielt, die aaffetiven Modellen bei nichtverschwindender Temperatur als Referenz dienen. Gleichwohl fehlt ein affektives Modell bei T <> 0, das einen Tetraquarkzustand beinhaltet. Hier setzt diese Arbeit an und erweitert das Modell, das leichte skalare Resonanzen mittels Tetraquarkzuständen erklärt, zu nichtverschwindenden Temperaturen.
In dieser ersten Studie zum Thema wird das Lineare Sigma-Modell um den leichtesten Tetraquarkzustand ergänzt und sein Einfluss auf den chiralen Phasenübergang untersucht.
Es zeigt sich, dass dieser Ansatz nicht nur Fragen im Bereich der Vakuumphysik lösen kann, sondern auch solche hinsichtlich der Restaurierung der chiralen Symmetrie.
It is well known that Luis Kutner (1908-1993) played an important role in the development of the living will (advance directive, Patientenverfügung). But it is not clear when he developed his concept. We have screened the Luis Kutner Papers,deposited at the Hoover Institution Archives at Stanford University to answer this question. We found out that in the second half of 1967, Kutner dealt intensively with the issue of euthanasia. On December 7, 1967, he delivered a speech at the annual meeting of the Euthanasia Society in New York and presented the concept of the living will to the audience. So Kutner surely was a pioneer in this field, but further research is necessary to clarify, if he (or maybe Elsa W. Simon or Abraham L. Wolbarst) was the "originator" of the living will concept in the sense of passive euthanasia.
In dieser Arbeit wurde deutlich, dass die Multilevel Monte Carlo Methode eine signifikante Verbesserung gegenüber der Monte Carlo Methode darstellt. Sie schafft es den Rechenaufwand zu verringern und in fast allen Fällen die gewollte Genauigkeit zu erreichen. Die Erweiterung durch Richardson Extrapolation brachte immer eine Verringerung des Rechenaufwands oder zumindest keine Verschlechterung, auch wenn nicht in allen Fällen die schwache Konvergenzordnung verdoppelt wurde.
Im Falle der Optionssensitivitäten ist eine Anwendung des MLMC-Algorithmus problematisch. Das Funktional, das auf den Aktienkurs angewendet wird, darf keine Unstetigkeitsstelle besitzen, bzw. im Falle des Gammas muss es stetig differenzierbar sein. Die Anwendung der MLMC Methode macht dann vor allem Sinn, wenn sich die Sensitivität als Funktion des Aktienkurses umformen lässt, so dass nur der Pfad der Aktie simuliert werden muss. Nur wenn dies nicht möglich ist, wäre es sinnvoll, die in Kapitel 6.5 am Beispiel des Deltas vorgestellte Methode zu benutzen, in der man einen zweiten Pfad für das Delta simuliert.
Weitere Verbesserungsmöglichkeiten könnten in der Wahl von anderen varianzreduzierenden Methoden liegen oder durch Verwendung von Diskretisierungsverfahren mit höherer starker Ordnung als das Euler-Verfahren (vgl. [7], Verwendung des Milstein-Verfahrens). In diesem Fall ist theoretisch ein Rechenaufwand der Größenordnung O(ϵexp-2) möglich, da die Anzahl der zu erstellenden Samples nicht mehr mit steigendem L erhöht wird. Somit könnte das L so groß gewählt werden, dass der Bias verschwindet und der MSE ausschließlich von der Varianz des Schätzers abhängt. Um diese auf eine Größenordnung von O(ϵexp2) zu bringen, ist es nötig, O(ϵexp2) Pfade zu erstellen (siehe Gleichung (3.6)), was den Rechenaufwand begründet.
Motivated by the question of correctness of a specific implementation of concurrent buffers in the lambda calculus with futures underlying Alice ML, we prove that concurrent buffers and handled futures can correctly encode each other. Correctness means that our encodings preserve and reflect the observations of may- and must-convergence, and as a consequence also yields soundness of the encodings with respect to a contextually defined notion of program equivalence. While these translations encode blocking into queuing and waiting, we also describe an adequate encoding of buffers in a calculus without handles, which is more low-level and uses busy-waiting instead of blocking. Furthermore we demonstrate that our correctness concept applies to the whole compilation process from high-level to low-level concurrent languages, by translating the calculus with buffers, handled futures and data constructors into a small core language without those constructs.
We investigate methods and tools for analyzing translations between programming languages with respect to observational semantics. The behavior of programs is observed in terms of may- and mustconvergence in arbitrary contexts, and adequacy of translations, i.e., the reflection of program equivalence, is taken to be the fundamental correctness condition. For compositional translations we propose a notion of convergence equivalence as a means for proving adequacy. This technique avoids explicit reasoning about contexts, and is able to deal with the subtle role of typing in implementations of language extensions.
The paper proposes a variation of simulation for checking and proving contextual equivalence in a non-deterministic call-by-need lambda-calculus with constructors, case, seq, and a letrec with cyclic dependencies. It also proposes a novel method to prove its correctness. The calculus’ semantics is based on a small-step rewrite semantics and on may-convergence. The cyclic nature of letrec bindings, as well as nondeterminism, makes known approaches to prove that simulation implies contextual equivalence, such as Howe’s proof technique, inapplicable in this setting. The basic technique for the simulation as well as the correctness proof is called pre-evaluation, which computes a set of answers for every closed expression. If simulation succeeds in finite computation depth, then it is guaranteed to show contextual preorder of expressions.
The goal of this report is to prove correctness of a considerable subset of transformations w.r.t. contextual equivalence in an extended lambda-calculus LS with case, constructors, seq, let, and choice, with a simple set of reduction rules; and to argue that an approximation calculus LA is equivalent to LS w.r.t. the contextual preorder, which enables the proof tool of simulation. Unfortunately, a direct proof appears to be impossible.
The correctness proof is by defining another calculus L comprising the complex variants of copy, case-reduction and seq-reductions that use variable-binding chains. This complex calculus has well-behaved diagrams and allows a proof of correctness of transformations, and that the simple calculus LS, the calculus L, and the calculus LA all have an equivalent contextual preorder.
The paper argues that the current global market is organized by a system of transnational law whose development is best characterized as ambivalent. On the one side, legal juridification can lead to a hegemonic system of international law that lacks legitimacy, paradoxically creates extralegal spheres, promotes the ‘privatization’ of political areas, and, thereby, reduces the competences of states. On the other side, legal codification can also function as an engine of transnational democratization and as a barrier to an unhampered growth of transnational administrative and executive power. Scholarship on the idea of legitimacy in law and transnational governance in political and legal theory has to reflect these aspects of juridification on a world scale. Most approaches to the issue, however, have serious flaws: they neither offer an adequate empirical diagnosis of the de-embedding of international economic and legal processes, nor do they provide convincing proposals as to how such processes could be domesticated. Against this background, the paper lays out a critical analysis of legal codification processes as well as proposing an account of democratic governance, based on a realistic conception of deliberative democracy.
This article argues that proliferation of prefixes like ‘neo’ and ‘post’ that adorn conventional ‘isms’ have cast a long shadow on the contemporary relevance of traditional political ideologies. Suggesting that there is, indeed, something new about today’s political belief systems, the essay draws on the concept of ‘social imaginaries’ to make sense of the changing nature of the contemporary ideological landscape. The core thesis presented here is that today’s ideologies are increasingly translating the rising global imaginary into competing political programs and agendas. But these subjective dynamics of denationalization at the heart of globalization have not yet dispensed with the declining national imaginary. The twenty-first century promises to be an ideational interregnum in which both the global and national stimulate people’s deep-seated understandings of community. Suggesting a new classification scheme dividing contemporary political ideologies into ‘market globalism’, ‘justice globalism’, and ‘jihadist globalism’, the article ends with a brief assessment of the main ideological features of justice globalism.
In dieser Arbeit wurde die Zentralitätsabhängigkeit der K0S -Produktion in Pb+Pb Stößen für 40A und 158A GeV untersucht. Sie wurden über den Zerfallskanal K0S → π+π− der schwachen Wechselwirkung nachgewiesen und bilden zusammen mit den geladenen Kaonen den Großteil der entstehenden Strangeness einer Kollision. Die Bestimmung der Zentralität erfolgte anhand der im Veto-Kalorimeter detektierten Spektatoren. Die Messergebnisse unterliegen aufgrund der limitierten geometrischen Akzeptanz des Detektors, Effizienzverlusten in der V 0-Rekonstruktion und gewählter Qualitätskriterien einigen Verlusten. Auf diese Verluste konnte mit Hilfe eines Simulationsverfahren, dem so genannten Embedding, korrigiert werden. Dabei wurden Korrekturfaktoren für differentielle Phasenraumbereiche ermittelt und auf die gemessenen Signalinhalte der invarianten Massenspektren angewendet. Des Weiteren wurde eine Vielzahl von Studien durchgeführt um die Stabilität der Ergebnisse im Rahmen eines systematischen Fehler zu bestimmen.
Die korrigierten Transversalimpuls-Spektren und Spektren der invarianten Massen verschiedener Phasenraumbereiche und Zentralitäten wurden präsentiert. Darüber hinaus wurden der inverse Steigungsparameter, die Rapiditätsspektren, sowie die berechneten Gesamtmultiplizitäten der K0S in Abhängigkeit der Zentralität und anhand der "wounded" Nukleonen diskutiert. Die Ergebnisse konnten mit vorangegangenen Analysen von NA49, NA57 und CERES verglichen werden. Dabei wurden insbesondere geringe Unstimmigkeiten mit den NA49-Ergebnissen der geladenen Kaonen bei 158A GeV festgestellt. Des Weiteren wurde die Diskrepanz zu den NA57-Ergebnissen, welche aus Analysen anderer Teilchensorten bekannt ist, für mittlere Rapiditäten bestätigt. Die Zentralitäatsabhängigkeit der Ergebnisse wurde zusätzlich mit UrQMD-Modellrechnungen geladener Kaonen verglichen und kann durch diese näherungsweise beschrieben werden.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Mitochondrial dysfunction is well documented in presymptomatic brain tissue with Parkinson's disease (PD). Identification of the autosomal recessive variant PARK6 caused by loss-of-function mutations in the mitochondrial kinase PINK1 provides an opportunity to dissect pathogenesis. Although PARK6 shows clinical differences to PD, the induction of alpha-synuclein "Lewy" pathology by PINK1-deficiency proves that mitochondrial pathomechanisms are relevant for old-age PD. Mitochondrial dysfunction is induced by PINK1 deficiency even in peripheral tissues unaffected by disease, consistent with the ubiquitous expression of PINK1. It remains unclear whether this dysfunction is due to PINK1-mediated phosphorylation of proteins inside or outside mitochondria. Although PINK1 deficiency affects the mitochondrial fission/fusion balance, cell stress is required in mammals to alter mitochondrial dynamics and provoke apoptosis. Clearance of damaged mitochondria depends on pathways including PINK1 and Parkin and is critical for postmitotic neurons with high energy demand and cumulative stress, providing a mechanistic concept for the tissue specificity of disease.
Eucken's writings are rich in content not only from an (constitutional) economic perspective but also from an economic and business ethics perspective – an often neglected perspective of the reception of German Ordoliberalism in general and the Freiburg School of Economics in particular. The paper gives a first insight into the ethical-normative thinking of Eucken, as one of the main representatives of Ordoliberalism, and explains Eucken’s conception of Social Market Economy as a functioning and humane order as well as Eucken’s Kantian understanding of freedom. To conclude the essay tries to classify Eucken’s Ordoliberalism as a part of the spectrum of modern economic and business ethics.
Tagungsbericht des Workshops "Völkerrecht und Weltwirtschaft im 19. Jahrhundert. Die Internationalisierung der Ökonomie aus völkerrechts- und wirtschafts(theorie-)geschichtlicher Perspektive", der vom 3. bis 4. September 2009 in Frankfurt am Main stattfand. Veranstalter: Exzellenzcluster "Die Herausbildung normativer Ordnungen"; in Kooperation mit der Goethe Universität Frankfurt am Main; dem Max-Planck-Institut für europäische Rechtsgeschichte
Background, aim, and scope: The chemical substance 2,4,7,9-tetramethyl-5-decyne-4,7-diol (TMDD) is a non-ionic surfactant used as an industrial defoaming agent and in various other applications. Its commercial name is Surynol 104® and the related ethoxylates are also available as Surfynol® 420, 440, 465 and 485 which are characterized by different grades of ethoxylation of TMDD at both hydroxyl functional groups. TMDD and its ethoxylates offer several advantages in waterborne industrial applications in coatings, inks, adhesives as well as in paper industries. TMDD and its ethoxylates can be expected to reach the aquatic environment due its widespread use and its physico-chemical properties. TMDD has previously been detected in several rivers of Germany with concentrations up to 2.5 µg/L. In the United States, TMDD was also detected in drinking water. However, detailed studies about its presence and distribution in the aquatic environment have not been carried out so far. The aim of the present study was the analysis of the spatial and temporal concentration variations of TMDD in the river Rhine at the Rheingütestation Worms (443.3 km). Moreover, the transported load in the Rhine was investigated during two entire days and 7 weeks between November 2007 and January 2008.
Materials and methods: The sampling was carried out at three different sampling points across the river. Sampling point MWL1 is located in the left part of the river, MWL2 in the middle part, and MWL4 in the right part. One more sampling site (MWL3) was run by the monitoring station until the end of 2006, but was put out of service due to financial constrains. The water at the left side of the river Rhine (MWL1) is influenced by sewage from a big chemical plant in Ludwigshafen and by the sewage water from this city. The water at the right side of the river Rhine (MWL4) is largely composed of the water inflow from river Neckar, discharging into Rhine 14.9 km upstream from the sampling point and of communal and industrial wastewater from the city Mannheim. The water from the middle of the river (MWL2) is largely composed of water from the upper Rhine. Water samples were collected in 1-L bottles by an automatic sampler. The water samples were concentrated by use of solid-phase extraction (SPE) using Bond Elut PPL cartridges and quantified by use of gas chromatography-mass spectrometry (GC-MS). The quantification was carried out with the internal standard method. Based on these results, concentration variations were determined for the day profiles and week profiles. The total number of analyzed samples was 219.
Results: The results of this study provide information on the temporal concentration variability of TMDD in river Rhine in a cross section at one particular sampling point (443.3 km). TMDD was detected in all analyzed water samples at high concentrations. The mean concentrations during the 2 days were 314 ng/L in MWL1, 246 ng/L in MWL2, and 286 ng/L in MWL4. The variation of concentrations was low in the day profiles. In the week profiles, a trend of increasing TMDD concentrations was detected particularly in January 2008, when TMDD concentrations reached values up to 1,330 ng/L in MWL1. The mean TMDD concentrations during the week profiles were 540 ng/L in MWL1, 484 ng/L in MWL2, and 576 ng/L in MWL4. The loads of TMDD were also determined and revealed to be comparable in all three sections of the river. The chemical plant located at the left side of the Rhine is not contributing additional TMDD to the river. The load of TMDD has been determined to be 62.8 kg/d on average during the entire period. By extrapolation of data obtained from seven week profiles the annual load was calculated to 23 t/a.
Discussion: The permanent high TMDD concentrations during the investigation period indicate an almost constant discharge of TMDD into the river. This observation argues for effluents of municipal wastewater treatment plants as the most likely source of TMDD in the river. Another possible source might be the degradation of ethoxylates of TMDD (Surfynol® series 400), in the WWTPs under formation of TMDD followed by discharge into the river. TMDD has to be considered as a high-production-volume (HPV) chemical based on the high concentrations found in this study. In the United States, TMDD is already in the list of HPV chemicals from the Environmental Protection Agency (EPA). However, the amount of TMDD production in Europe is unknown so far and also the biodegradation rates of TMDD in WWTPs have not been investigated.
Conclusions: TMDD was found in high concentrations during the entire sampling period in the Rhine river at the three sampling points. During the sampling period, TMDD concentrations remained constant in each part of the river. These results show that TMDD is uniformly distributed in the water collected at three sampling points located across the river. ‘Waves’ of exceptionally high concentrations of TMDD could not be detected during the sampling period. These results indicate that the effluents of WWTPs have to be considered as the most important sources of TMDD in river Rhine.
Recommendations and perspectives: Based also on the occurrence of TMDD in different surface waters of Germany with concentrations up to 2,500 ng/L and its presence in drinking water in the USA, more detailed investigations regarding its sources and distribution in the aquatic environment are required. Moreover, the knowledge with respect to its ecotoxicity and its biodegradation pathway is scarce and has to be gained in more detail. Further research is necessary to investigate the rate of elimination of TMDD in municipal and industrial wastewater treatment plants in order to clarify the degradation rate of TMDD and to determine to which extent effluents of WWTPs contribute to the input of TMDD into surface waters. Supplementary studies are needed to clarify whether the ethoxylates of TMDD (known as Surfynol 400® series) are hydrolyzed in the aquatic environment resulting in formation of TMDD similar to the well known cleavage of nonylphenol ethoxylates into nonylphenols. The stability of TMDD under anaerobic conditions in groundwater is also unknown and should be studied.
In wissenschaftlichen als auch administrativen Kontexten ist die Überzeugung weit verbreitet, es müssten neue Steuerungsmodelle und Steuerungsinstrumente im Schulwesen implementiert werden. Die Einführung neuer Steuerungsmodelle und Steuerungsinstrumente wird dabei entweder am Vorbild anderer Länder ausgerichtet, so
z. B. bei der Einrichtung von Qualitätsagenturen, oder es wird an Steuerungsinstrumente angeknüpft, die auch in Deutschland eine Tradition haben, wie bspw. das Zentralabitur. Für diese unterschiedlichen Maßnahmen hat sich in den letzten Jahren der Begriff der Qualitätssicherung bzw. Qualitätsentwicklung eingebürgert. Man kann die im Schulwesen ergriffenen Maßnahmen aber auch in einen weiteren Kontext stellen und neue Steuerungsmodelle im Zusammenhang mit allgemeinen Modernisierungsbestrebungen im Staats- und Verwaltungswesen betrachten. Diese Theorieansätze, die unter dem Oberbegriff New Public Management populär geworden sind, eröffnen den begrifflich-analytischen Rahmen, der institutionelle Wandlungsprozesse verständlich macht. Die vorliegende Arbeit geht der Frage nach, ob und wie sich ein Funktionswandel der (unteren) staatlichen Schulaufsicht von einem bürokratischen Steuerungssystem zu einem schulischen Unterstützungssystem abzeichnet. Dabei geht die vorliegende Arbeit von der Grundannahme aus, dass die staatliche Schulaufsicht als Teil des Staats- und Verwaltungswesens betrachtet werden muss, wenn man eine realistische Einschätzung darüber gewinnen möchte, welche institutionellen Veränderungsprozesse sich aktuell vollziehen und welche Entwicklungsspielräume in Zukunft bestehen. Dieser Frage soll nicht nur theoretisch, sondern auch empirisch nachgegangen werden. Um dem Forschungsgegenstand gerecht zu werden, wird ein akteursorientierter Ansatz gewählt. Da man es bei vielen Reformen im öffentlichen Sektor mit einer Gemengelage von Interessen unterschiedlichster Akteure zu tun hat, bietet eine akteursorientierte Perspektive den Vorteil, institutionelle Wandlungsprozesse in einem gesellschaftlichen
System auf makro- und mikropolitischer Ebene greifbar zu machen. Im ersten Teil der vorliegenden Arbeit werden die Modernisierungsansätze vorgestellt, die unter dem Begriff New Public Management firmieren. Ergänzend dazu wird der aktuelle wissenschaftliche Diskussionsstand in Politik- und Sozialwissenschaft skizziert. Es folgt eine Beschreibung erster Wirkungen neuer Steuerungsformen in
Deutschland und im anglo-amerikanischen Raum sowie konkret am Fallbeispiel der Schulaufsichtsbehörden in England. Abschließend wird der Diskurswechsel von New Public Management zu New Public Governance beschrieben. Der Diskurs zu New Public Governance betont die Rolle von Akteuren in Modernisierungsprozessen. Der zweite Teil stellt überblicksartig die Institutionalgeschichte der staatlichen
Schulaufsicht dar, die als wichtigste Determinante für weitergehende Reformbestrebungen gelten kann. Es folgt die Darstellung aktueller Entwicklungstendenzen im schulischen Steuerungssystem. Dabei können die Neu-Gründung von Qualitätsagenturen, die Einführung von Schulinspektionen, die Bestimmung strategischer Ziele im Schulsystem und die Etablierung von Berichtssystemen als ein Lernen aus internationalen Entwicklungen beschrieben werden. Die anschließende vertiefte Diskussion von Managementansätzen macht deutlich, dass die Möglichkeiten, die untere Schulaufsicht zu einem schulischen Unterstützungssystem zu entwickeln, noch nicht ausgeschöpft sind. Es wird dahingehend argumentiert, dass die Managementansätze als ein Professionalisierungsimpuls für das Steuerungssystem gelten können: Anspruchsvolle Aufgaben im system monitoring und im Bereich der Schulentwicklung kann die untere Schulaufsicht nur auf der Basis breiten, sozialwissenschaftlichen Wissens gerecht werden. Im dritten Teil wird konkret am Beispiel der unteren Schulaufsicht in Hessen
herausgearbeitet, welche Funktionen die staatliche Schulaufsicht wahrnimmt und wie sich ein möglicher Funktionswandel auf die Arbeit der unteren Schulaufsichtsebene auswirkt. Dazu wird Interviewmaterial genutzt, dass in Gruppendiskussionen mit fachlichen Schulaufsichtsbeamten in Hessen gewonnen wurde. Um einen umfassenderen Überblick über aktuelle Entwicklungstendenzen zu erhalten, wird ergänzend dazu Material aus Experteninterviews mit Vertretern der oberen Schulaufsicht hinzugezogen. Im Rückgriff auf die Daten eines Evaluationsprojekts am Deutschen Institut für Internationale Pädagogische Forschung(DIPF), werden Leistungen und Funktionalität der unteren Schulaufsicht aus der Perspektive der fachlichen Schulaufsichtsbeamten bewertet: Zum einen aus der Binnensicht interner Organisation und zum anderen in der Außendimension als Steuerungsinstanz im Schulsystem. Der zusätzliche Vergleich mit den Schulleiterdaten soll Auskunft darüber geben, inwieweit die Bewertungen hinsichtlich derzeitiger und zukünftiger Funktionen konvergent bzw. divergent sind. Im vierten Teil werden die Ergebnisse der Untersuchung mit den theoretischen Vorüberlegungen aus den ersten beiden Kapiteln verknüpft. Es werden Entwicklungsmöglichkeiten des schulischen Steuerungssystems aufgezeigt und weitergehende Evaluationsansätze nach Maßgabe der Grundlagentheorien diskutiert.
Wie kann eine E-Learning-Strategie in einer Hochschule durch einen geeigneten Maßnahmenkatalog in einem stufenweisen Organisationsentwicklungsprozess umgesetzt werden? Welche verschiedenen Entwicklungspfade für Fachbereichsstrategien sind dabei möglich? Wie gelingt es, eine Community aufzubauen, die sich dem Ziel verpflichtet, gemeinsam eine hohe Qualität im Bereich E-Learning zu erreichen? Diesen Fragen geht der vorliegende Beitrag nach, der die Umsetzung der E-Learning-Strategie der Goethe-Universität Frankfurt mit dem Projekt megadigitale vorstellt, das 2007 mit dem mediendidaktischen Hochschulpreis Medida-Prix prämiert wurde.
Die Goethe-Universität Frankfurt hat in den letzten Jahren mit dem Projekt megadigitale hochschulweit ihre eLearning-Strategie umgesetzt und alle Fachbereiche in das Vorhaben integriert, d.h. in allen 16 Fachbereichen den Einsatz neuer Medien in der Lehre befördert. Wichtiger Bestandteil dieses kombinierten TopDown-BottomUp-Konzeptes war seit 2005 die finanzielle Förderung von eLearning-Projekten von Lehrenden. Ab 2007 wurde mit Hilfe des MedidaPrix-Preisgeldes zudem die Förderung studentischer eLearning-Vorhaben umgesetzt. Ziel war, die Ideen und Visionen von Studierenden, welche Form von eLearning und des Medieneinsatzes sie an ihrer Hochschule präferieren, aufzugreifen. Dieser Beitrag stellt die einzelnen Förderansätze, ihre Ausrichtungen, Zielsetzungen und Wirksamkeit vor und beschreibt deren Zusammenspiel mit den anderen in megadigitale implementierten Maßnahmen zur hochschulweiten Umsetzung von eLearning.
Die Goethe-Universität hat im Rahmen ihres Projektes megadigitale, das die hochschulweite Umsetzung ihrer eLearning-Strategie verfolgte, ein Vorgehensmodell entwickelt, das entlang des kompletten Prozesses der Entwicklung und Umsetzung von eLearning-Ansätzen standardisierte Analyse-, Planungs-, Konzeptions-, Implementierungs- und Qualitätssicherungsinstrumente anwendet. Dabei spielen Verfahren zur Qualitätssicherung schon von dem ersten Schritt an, in der Analysephase eine Rolle, angepasst an die verschiedenen Ebenen der Umsetzung.
An der Universität Frankfurt entwickelte Online-Self-Assessment-Verfahren für die Studiengänge Psychologie und Informatik sollen Studieninteressierten noch vor Studienbeginn auf der Basis von Selbsterkundungsmaßnahmen und Tests eine Rückmeldung über ihre eigenen Fähigkeiten, Motive, personalen Kompetenzen und Interessen mit Blick auf den jeweiligen Studiengang geben. Sowohl die Befunde zur psychometrischen Güte der Verfahren als auch jene zur prognostischen Validität lassen ihren Einsatz zur Feststellung studienrelevanter Kompetenzen als geeignet erscheinen. Da die erfassten Kompetenzen und Merkmale substanzielle Beziehun-gen zu Studienleistungen aufweisen, könnten die Informationen über individuelle Stärken zur Wahl eines geeigneten Studienganges genutzt werden; Schwächen hingegen könnten frühzeitig Hinweise für geeignete Fördermaßnahmen liefern.
In the last decade, several sophisticated and accurate imaging methods such as positron emission tomography have been developed in order to evaluate malignant potential in enlarged mediastinal lymph nodes. This case illustrates an unusual presentation of sarcoidosis that mimicked lymphatic metastases of non small cell lung carcinoma. The reported high specificity and sensitivity of positron emission tomography-Computer Tomography regarding mediastinal staging could lead in same cases of false positives to a delaying of stage adapted therapy of non small cell lung carcinoma, showing that despite the recent advances of imaging techniques, such as positron emission tomography-computer tomography, several limitations of this imaging technique are still existing.
The human immunodeficiency virus (HIV) had spread unrecognized in the human population as sexually transmitted disease and was finally identified by its disease AIDS in 1981. Even after the isolation of the causative agent in 1983, the burden and death rate of AIDS accelerated worldwide especially in young people despite the confection of new drugs capable to inhibit virus replication since 1997. However, at least in industrialised countries, this trend could be reversed by the introduction of combination therapy strategies. The design of new drugs is on going; besides the inhibition of the three enzymes of HIV for replication and maturation (reverse transcriptase, integrase and protease), further drugs inhibits fusion of viral and cellular membranes and virus maturation. On the other hand, viral diagnostics had been considerably improved since the emergence of HIV. There was a need to identify infected people correctly, to follow up the course of immune reconstitution of patients by measuring viral load and CD4 cells, and to analyse drug escape mutations leading to drug resistance. Both the development of drugs and the refined diagnostics have been transferred to the treatment of patients infected with hepatitis B virus (HBV) and hepatitis C virus (HCV). This progress is not completed; there are beneficial aspects in the response of the scientific community to the HIV burden for the management of other viral diseases. These aspects are described in this contribution. Further aspects as handling a stigmatising disease, education of self-responsiveness within sexual relationships, and ways for confection of a protective vaccine are not covered.
The 99th Annual Meeting of the Geologische Vereinigung (GV) and International Conference on Earth Control on Planetary Life and Environment, held in October 2009 at the Geosciences Centre of the Georg-August-Universität Göttingen, brings together researchers from all fields of Earth Sciences and beyond to shape an attractive interdisciplinary program on the geological history of Planet Earth and its control over and interaction with biological evolution, development of habitats, environmental and climate change as well as history and culture of Homo sapiens. This volume contains the abstracts of invited keynote lectures as well as all oral and poster presentations.
In this work we present the setup and first tests of our new BIO IN detector. This detector is designed to classify atmospheric ice nuclei (IN) for their biological content. Biological material is identified via its auto-fluorescence (intrinsic fluorescence) after irradiation with UV radiation. Ice nuclei are key substances for precipitation development via the Bergeron–Findeisen process. The level of scientific knowledge regarding origin and climatology (temporal and spatial distribution) of IN is very low. Some biological material is known to be active as IN even at relatively high temperatures of up to –2°C (e.g. pseudomonas syringae bacteria). These biological IN could have a strong influence on the formation of clouds and precipitation. We have designed the new BIO IN sensor to analyze the abundance of IN of biological origin. The instrument will be flown on one of the first missions of the new German research aircraft ''HALO'' (High Altitude and LOng Range).
Active chlorine species play a dominant role in the catalytic destruction of stratospheric ozone in the polar vortices during the late winter and early spring seasons. Recently, the correct understanding of the ClO dimer cycle was challenged by the release of new laboratory absorption cross sections (Pope et al., 2007) yielding significant model underestimates of observed ClO and ozone loss (von Hobe et al., 2007). Under this aspect, Arctic stratospheric limb emission measurements carried out by the balloon version of the Michelson Interferometer for Passive Atmospheric Sounding (MIPAS-B) from Kiruna (Sweden) on 11 January 2001 and 20/21 March 2003 have been reanalyzed with regard to the chlorine reservoir species ClONO2 and the active species, ClO and ClOOCl (Cl2O2). New laboratory measurements of IR absorption cross sections of ClOOCl for various temperatures and pressures allowed for the first time the retrieval of ClOOCl mixing ratios from remote sensing measurements. High values of active chlorine (ClOx) of roughly 2.3 ppbv at 20 km were observed by MIPAS-B in the cold mid-winter Arctic vortex on 11 January 2001. While nighttime ClOOCl shows enhanced values of nearly 1.1 ppbv at 20 km, ClONO2 mixing ratios are less than 0.1 ppbv at this altitude. In contrast, high ClONO2 mixing ratios of nearly 2.4 ppbv at 20 km have been observed in the late winter Arctic vortex on 20 March 2003. No significant ClOx amounts are detectable on this date since most of the active chlorine has already recovered to its main reservoir species ClONO2. The observed values of ClOx and ClONO2 are in line with the established chlorine chemistry. The thermal equilibrium constants between the dimer formation and its dissociation, as derived from the balloon measurements, are on the lower side of reported data and in good agreement with values recommended by von Hobe et al. (2007). Calculations with the ECHAM/MESSy Atmospheric Chemistry model (EMAC) using established kinetics show similar chlorine activation and deactivation, compared to the measurements in January 2001 and March 2003, respectively.
wo different single particle mass spectrometers were operated in parallel at the Swiss High Alpine Research Station Jungfraujoch (JFJ, 3580 m a.s.l.) during the Cloud and Aerosol Characterization Experiment (CLACE 6) in February and March 2007. During mixed phase cloud events ice crystals from 5 μm up to 20 μm were separated from large ice aggregates, non-activated, interstitial aerosol particles and supercooled droplets using an Ice-Counterflow Virtual Impactor (Ice-CVI). During one cloud period supercooled droplets were additionally sampled and analyzed by changing the Ice-CVI setup. The small ice particles and droplets were evaporated by injection into dry air inside the Ice-CVI. The resulting ice and droplet residues (IR and DR) were analyzed for size and composition by two single particle mass spectrometers: a custom-built Single Particle Laser-Ablation Time-of-Flight Mass Spectrometer (SPLAT) and a commercial Aerosol Time of Flight Mass Spectrometer (ATOFMS, TSI Model 3800). During CLACE 6 the SPLAT instrument characterized 355 individual ice residues that produced a mass spectrum for at least one polarity and the ATOFMS measured 152 particles. The mass spectra were binned in classes, based on the combination of dominating substances, such as mineral dust, sulfate, potassium and elemental carbon or organic material. The derived chemical information from the ice residues is compared to the JFJ ambient aerosol that was sampled while the measurement station was out of clouds (several thousand particles analyzed by SPLAT and ATOFMS) and to the composition of the residues of supercooled cloud droplets (SPLAT: 162 cloud droplet residues analyzed, ATOFMS: 1094). The measurements showed that mineral dust particles were strongly enhanced in the ice particle residues. 57% of the SPLAT spectra from ice residues were dominated by signatures from mineral compounds, and 78% of the ATOFMS spectra. Sulfate and nitrate containing particles were strongly depleted in the ice residues. Sulfate was found to dominate the droplet residues (~90% of the particles). The results from the two different single particle mass spectrometers were generally in agreement. Differences in the results originate from several causes, such as the different wavelength of the desorption and ionisation lasers and different size-dependent particle detection efficiencies.
Tracer measurements in the tropical tropopause layer during the AMMA/SCOUT-O3 aircraft campaign
(2009)
We present airborne in situ measurements made during the AMMA (African Monsoon Multidisciplinary Analysis)/SCOUT-O3 campaign between 31 July and 17 August 2006 on board the M55 Geophysica aircraft, based in Ouagadougou, Burkina Faso. CO2 and N2O were measured with the High Altitude Gas Analyzer (HAGAR), CO was measured with the Cryogenically Operated Laser Diode (COLD) instrument, and O3 with the Fast Ozone ANalyzer (FOZAN). We analyze the data obtained during five local flights to study the dominant transport processes controlling the tropical tropopause layer (TTL) above West-Africa: deep convection up to the level of main convective outflow, overshooting of deep convection, horizontal inmixing across the subtropical tropopause, and horizontal transport across the subtropical barrier. Except for the flight of 13 August, distinct minima in CO2 indicate convective outflow of boundary layer air in the TTL. The CO2 profiles show that the level of main convective outflow was mostly located between 350 and 360 K, and for 11 August reached up to 370 K. While the CO2 minima indicate quite significant convective influence, the O3 profiles suggest that the observed convective signatures were mostly not fresh, but of older origin. When compared with the mean O3 profile measured during a previous campaign over Darwin in November 2005, the O3 minimum at the main convective outflow level was less pronounced over Ouagadougou. Furthermore O3 mixing ratios were much higher throughout the whole TTL and, unlike over Darwin, rarely showed low values observed in the regional boundary layer. Signatures of irreversible mixing following overshooting of convective air were scarce in the tracer data. Some small signatures indicative of this process were found in CO2 profiles between 390 and 410 K during the flights of 4 and 8 August, and in CO data at 410 K on 7 August. However, the absence of expected corresponding signatures in other tracer data makes this evidence inconclusive, and overall there is little indication from the observations that overshooting convection has a profound impact on TTL composition during AMMA. We find the amount of photochemically aged air isentropically mixed into the TTL across the subtropical tropopause to be not significant. Using the N2O observations we estimate the fraction of aged extratropical stratospheric air in the TTL to be 0.0±0.1 up to 370 K during the local flights, increasing above this level to 0.2±0.15 at 390 K. The subtropical barrier, as indicated by the slope of the correlation between N2O and O3 between 415 and 490 K, does not appear as a sharp border between the tropics and extratropics, but rather as a gradual transition region between 10 and 25° N latitude where isentropic mixing between these two regions may occur.
Processes occurring in the tropical upper troposphere and lower stratosphere (UT/LS) are of importance for the global climate, for the stratospheric dynamics and air chemistry, and they influence the global distribution of water vapour, trace gases and aerosols. The mechanisms underlying cloud formation and variability in the UT/LS are of scientific concern as these still are not adequately described and quantified by numerical models. Part of the reasons for this is the scarcity of detailed in-situ measurements in particular from the Tropical Transition Layer (TTL) within the UT/LS. In this contribution we provide measurements of particle number densities and the amounts of non-volatile particles in the submicron size range present in the UT/LS over Southern Brazil, West Africa, and Northern Australia. The data were collected in-situ on board of the Russian high altitude research aircraft M-55 "Geophysica" using the specialised COPAS (COndensation PArticle counting System) instrument during the TROCCINOX (Araçatuba, Brazil, February 2005), the SCOUT-O3 (Darwin, Australia, December 2005), and SCOUT-AMMA (Ouagadougou, Burkina Faso, August 2006) campaigns. The vertical profiles obtained are compared to those from previous measurements from the NASA DC-8 and NASA WB-57F over Costa Rica and other tropical locations between 1999 and 2007. The number density of the submicron particles as function of altitude was found to be remarkably constant (even back to 1987) over the tropical UT/LS altitude band such that a parameterisation suitable for models can be extracted from the measurements. At altitudes corresponding to potential temperatures above 430 K a slight increase of the number densities from 2005/2006 results from the data in comparison to the 1987 to 2007 measurements. The origins of this increase are unknown. By contrast the data from Northern hemispheric mid latitudes do not exhibit such an increase between 1999 and 2006. Vertical profiles of the non-volatile fraction of the submicron particles were also measured by a COPAS channel and are presented here. The resulting profiles of the non-volatile number density fraction show a pronounced maximum of 50% in the tropical TTL over Australia and West Africa. Below and above this fraction is much lower attaining values of 10% and smaller. In the lower stratosphere the fine particles mostly consist of sulphuric acid which is reflected in the low numbers of non-volatile residues measured by COPAS. Without detailed chemical composition measurements the reason for the increase of non-volatile particle fractions cannot yet be given. The long distance transfer flights to Brazil, Australia and West-Africa were executed during a time window of 17 months within a period of relative volcanic quiescence. Thus the data measured during these transfers represent a "snapshot picture" documenting the status of a significant part of the global UT/LS aerosol (with sizes below 1 μm) at low concentration levels 15 years after the last major (i.e., the 1991 Mount Pinatubo) eruption. The corresponding latitudinal distributions of the measured particle number densities are also presented in this paper in order to provide input on the UT/LS background aerosol for modelling purposes.