Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
The synchronization of neuronal firing activity is considered an important mechanism in cortical information processing. The tendency of multiple neurons to synchronize their joint firing activity can be investigated with the 'unitary event' analysis (Grün, 1996). This method is based on the nullhypothesis of independent Bernoulli processes and can therefore not tell whether coincidences observed between more than two processes can be considered "genuine" higher- order coincidences or whether they might be caused by coincidences of lower order that coincide by chance ("chance coincidences"). In order to distinguish between genuine and chance coincidences, a parametric model of independent interaction processes (MIIP) is presented. In the framework of this model, Maximum-Likelihood estimates are derived for the firing rates of n single processes and for the rates with which genuine higher order correlations occur. The asymptotic normality of these estimates is used to derive their asymptotic variance and in order to investigate whether higher order coincidences can be considered genuine or whether they can be explained by chance coincidences. The empirical test power of this procedure for n=2 and n=3 processes and for finite analysis windows is derived with simulations and compared to the asymptotic values. Finally, the model is extended in order to allow for the analysis of correlations that are caused by jittered coincidences.
MDMA oder Ecstasy, wie diese Droge, die 1913 erstmalig zufällig synthetisiert wurde, auch heißt, ist inzwischen fester Bestandteil der Jugendkultur in Amerika und Europa. Eine Literaturrecherche zu diesem Thema kann sich natürlich nicht nur auf Wirkungsweise, Struktur, Synthese und neurotoxische Gefahren beschränken, auch wenn das der Schwerpunkt der Recherche und auch der Ausführungen ist. Dennoch werden in dieser Arbeit auch die Probleme mit dem Umgang dieser Droge, der historische Werdegang und die wichtigen Hinweise zum Umgang mit MDMA beleuchtet, um so einen insgesamt ansatzweise vollständigen Überblick über ein sehr komplexes und umfassendes Thema zu geben. Der rechtliche Aspekt von MDMA wird nur sehr knapp behandelt. Nicht näher wird auf soziologische und gesellschaftliche Überlegungen im Zusammenhang mit der Benutzung von Ecstasy eingegangen, da dieses den Rahmen der Ausführungen sprengen würde und thematisch auch sehr fern ist. Stellvertretend sei hier auf eine Arbeit von Jens Rottmann (Drogenkonsum und Sucht bei Jugendlichen – Ursachen – Verbreitung – Handlungsalternativen ) [1] verwiesen, die diese Aspekte sehr eingehend behandelt. Die Ausführungen konzentrieren sich selbstredend auf die chemischen Grundlagen und biochemischen Abläufe im Zusammenhang mit MDMA. Im dritten Kapitel werden ausführlich biochemische Grundsätze zur Informationsweitergabe in unserem Körper erörtert, da die Ausführungen der Arbeit auf diesen Kenntnissen beruhen.
This paper argues that short (clause-internal) scrambling to a pre-subject position has A properties in Japanese but A'-properties in German, while long scrambling (scrambling across sentence boundaries) from finite clauses, which is possible in Japanese but not in German, has A'-properties throughout. It is shown that these differences between German and Japanese can be traced back to parametric variation of phrase structure and the parameterized properties of functional heads. Due to the properties of Agreement, sentences in Japanese may contain multiple (Agro- and Agrs-) specifiers whereas German does not allow for this. In Japanese, a scrambled element may be located in a Spec AgrP, i.e. an A- or L-related position, whereas scrambled NPs in German can only appear in an AgrP-adjoined (broadly-L-related) position, which only has A'-properties. Given our assumption that successive cyclic adjunction is generally impossible, elements in German may not be long scrambled because a scrambled element that is moved to an adjunction site inside an embedded clause may not move further. In Japanese, long distance scrambling out of finite CPs is possible since scrambling may proceed in a successive cyclic manner via embedded Spec- (AgrP) positions. Our analysis of the differences between German and Japanese scrambling provides us with an account of further contrasts between the two languages such as the existence of surprising asymmetries between German and Japanese remnant-movement phenomena, and the fact that unlike German, Japanese freely allows wh-scrambling. Investigation of the properties of Japanese wh-movement also leads us to the formulation of the "Wh-cluster Hypothesis", which implies that Japanese is an LF multiple wh-fronting language.
In this article, I discuss some important properties of wh-questions and wh-scrambling in Japanese. The questions I will address are (i) which instances of (wh-) scrambling involve reconstruction and (ii) how the undoing effects of scrambling can be derived. First I will discuss the claim that (wh-) scrambling is semantically vacuous and is therefore undone at LF (Saito 1989, 1992). Then I consider the data that led Takahashi (1993) to the conclusion that at least some instances of wh-scrambling have to be analyzed as instances of "full wh-movement" i.e., overt movement of the wh-phrase in its scopal position. It will be argued that these examples are not instances of full wh-movement in Japanese, but that they also represent semantically vacuous scrambling. Those instances of scrambling that apprently cannot be undone are best explained with recourse to parsing effects. I conclude that wh-scrambling in Japanese is always triggered by a ([-wh]-) scrambling feature. In addition, long distance scrambling (scrambling out of finite CPs) is analyzed as adjunction movement, whereas short distance scrambling is movement to a specifier position of IP. Turning to the mechanisms of undoing, I will argue that only long distance scrambling is undone. This is shown to follow from Chomsky's (1995) bare phrase structure analysis, according to which multi-segmental categories derived by adjunction movement are not licensed at LF. The article is organized as follows. In section 2, the wh-scrambling phenomenon is described. In section 3, I discuss the reconstruction properties of scrambling. In addition, this section provides some basic assumptions about my analysis of Japanese scrambling in general. In section 4, I turn to the analysis of wh-scrambling as an instance of full wh-movement in Japanese. Section 5 provides discussion of multiple wh-questions in Japanese, and section 6 gives the conclusion.
Die Doppelobjekt-Konstruktion bildet einen Untersuchungsgegenstand, der in der Vergangenheit die Theoriebildung in der Syntaxforschung wesentlich beeinflusst hat. Untersuchungen zu Doppelobjekt-Konstruktionen sind u.a. folgenreich gewesen für die Kasustheorie sowie für Analysen der Verbbewegung, Satz-, VP- und Argument-Struktur. In diesem Aufsatz stelle ich eine Analyse einiger wichtiger Aspekte der Doppelobjekt-Konstruktion im Deutschen vor. Untersucht wird, in welcher Position die Objekte des Verbs basisgeneriert werden und in welchen abgeleiteten Positionen sie erscheinen. Die Beantwortung dieser Fragen liefert eine Erklärung für das asymmetrische Verhalten der beteiligten Objekte in Bezug auf ihr Bindungs- und Extraktionsverhalten.
Integration in den Grenzregionen der Europäischen Union - die Europäische Union und ihre Bürger
(2002)
Die Arbeit setzt sich mit der Bedeutung der regionalen Ebene im Europäischen Integrationsprozess auseinander und untersucht die Rolle der Regionen in der Europäischen Union und ihren Mitgliedstaaten. Am Beispiel der Grenzregionen innerhalb der Europäischen Union werden die Fortschritte und die Auswirkungen der Europäischen Integration auf das Leben der europäischen Bürger dargestellt.
Die Induzierte Polarisation (IP) ist ein geoelektrisches Verfahren und wurde ursprünglich zur Exploration von Erzvorkommen entwickelt. Neben metallischen Leitern, tragen auch Tonminerale, der Porenraum und die chemische Zusammensetzung der Porenlösung zur Polarisierbarkeit eines Unter-grundes bei. Die spektrale Induzierte Polarisation (SIP) untersucht die Polarisierbarkeit in einem Frequenzbereich von 1 mHz bis 1 kHz und nutzt diese aufgezeichneten Spektren zur Unterscheidung von Materialien. Früher mit einem enormen messtechnischen Aufwand verbunden, führte der gerätetechnische Fort-schritt in den letzten beiden Jahrzehnten dazu, dass die SIP vermehrt in der Umweltgeophysik zum Einsatz kommt. Zu den Fragestellungen gehören die Detektion von Altlasten und der Grundwasser-schutz. In der Archäologie ist die Induzierte Polarisation bislang ein kaum verwendetes Verfahren. Im Rahmen des Graduiertenkollegs „Archäologische Analytik“ der J. W. Goethe- Universität wurde die Entwicklung einer Multielektroden-Apparatur SIP-256 begonnen. Ziel der vorliegenden Arbeit war die Fortführung dieser Entwicklung. Da sich die wissenschaftliche Fragestellung während dieser Promotion auf die Erkundung archäologischer Objekte beschränkt, galt es zunächst automatisierte Messabläufe zu realisieren, die es erlauben, die komplexe elektrische Leitfähigkeit kleinräumiger 2D- bzw. 3D-Strukturen zu erfassen. Die Verwendung der SIP-256 führte zu einer erheblichen Ver-kürzung der Messzeit und war entscheidend für die Realisierung dieser Arbeit. Den zweiten Schwerpunkt der Arbeit bildet die Suche nach Anwendungsgebieten für die SIP innerhalb der archäologischen Prospektion. Basierend auf den Ursachen von Polarisationseffekten werden im Rahmen dieser Arbeit drei Anwendungsgebiete vorgestellt. Das erste Anwendungsgebiet nutzt die Vorteile der SIP bei der Prospektion von Erzen. Auf einem mittelalterlicher Verhüttungsplatz bei Seesen am Harz konnten im Vergleich zu einer konventionellen Widerstandsmessung mehr Schlackegruben lokalisiert werden. Während einer deutsch-bulgarischen Grabungskampagne in Pliska (Bulgarien) 1999 gelang es, durch eine flächenhafte Anwendung der IP einen Siedlungshorizont über Lehmablagerungen nachzuweisen. Die Überreste eines Gebäudes erzeugten einen messbaren Polarisationseffekt. Die frühmittelalterlichen Siedlungsreste befinden sich mit 2 bis 3 m in relativ großer Tiefe und konnten bei einer anschließenden Ausgrabung freigelegt werden. Eine Kernfrage war, ob Holzobjekte mit Hilfe der SIP zu detektieren sind. Mit Hilfe von Labormessungen an der TU Clausthal konnte geklärt werden, dass Holz ein polarisierbares Material ist. Zu den untersuchten Proben gehören Hölzer aus einem bronzezeitlichen Bohlenweg, die von Ausgrabungen im Federseemoor (Kreis Biberach) stammen. Durch die Untersuchungen im Labor motiviert, folgte eine Feldmessung über dem Bohlenweg. Es gelang, erstmals ein Holzobjekt mit spektraler Induzierter Polarisation zu detektieren. Holz spielt durch die dendrochronologische Datierung von Fundstellen eine wichtige Rolle, konnte aber bislang noch mit keiner geophysikalischen Methode zufriedenstellend prospektiert werden. Abschließend kann gesagt werden, dass sich die spektrale Induzierte Polarisation als wertvolle Methode in der archäologischen Prospektion etablierte. Strukturen, welche mit einer konventionellen Widerstandsmessung nicht zu erkennen waren, konnten durch die SIP eindeutig identifiziert werden. Natürlich müssen die vorliegenden Ergebnisse noch durch weitere Messungen bestätigt werden, jedoch zeichnet sich ab, dass sich mit der fortschreitenden gerätetechnischen Entwicklung, welche zu schnelleren Messabläufen führt, wichtige Zusatzinformationen durch die spektrale Induzierte Polarisation gewinnen lassen.
"Scharfes Messer" oder "stumpfer Dolch"? : Lakatos als Instrument in den internationalen Beziehungen
(2002)
Das Anliegen dieser Diplomarbeit sollte nicht nur darin bestehen, die fehlerhafte Anwendung Lakatos‘ in den IB aufzuzeigen. Nach meiner Auffassung müssen wissenschaftstheoretische Ansätze keineswegs ein Buch mit sieben Siegeln für die IB darstellen. Die Tatsache, dass Lakatos als Instrument für die Sozialwissenschaften ungeeignet ist (vor allem zur Diskreditierung konkurrierender Theorien) sollte keineswegs dahingehend abschreckend wirken, sich innerhalb der IB weiterhin mit wissenschaftstheoretischen Grundlagen zu befassen. Die IB als wissenschaftliche Disziplin könnten meiner Ansicht nach zwei zentrale Thesen Lakatos‘ verinnerlichen. „Moment-Rationalität“ zur Bewertung von Theorien kann es nicht geben. Dies sollte gerade bei jungen Forschungsprogrammen beachtet werden, die sich noch mit einem „Ozean von Anomalien“ konfrontiert sehen. Zudem sollte der vorschnelle Drang zur Falsifikation aufgegeben werden. Die Feststellung Lakatos, warum Falsifikation um jeden Preis unser Ziel sein sollte, trifft hier den Nagel auf den Kopf. Dieser Aspekt führt zu einer meiner zentralen Thesen. Ein Grundübel der IB liegt darin, dass allzu häufig, der Blick auf wesentliche empirische Probleme vergessen wird. Aufgrund dieser Vorgehensweise begeht der kritische Politikwissenschaftler jedoch einen Kategorien-Irrtum. Nicht die Lösung relevanter Probleme, wie dies Laudan fordert, sondern der falsche Stolz, die eigene Theorie behalte recht oder sei wahr, steht häufig im Vordergrund. Taucht nun ein zu erklärendes soziales Phänomen (beispielsweise der Demokratische Frieden oder das Ende des Ost-West-Konflikts) auf, wird weniger versucht, dieses sich stellende Problem zu lösen, als die selbst vertretene Theorie zu retten bzw. zu bestätigen. Dieses Vorgehen führt zu inter-paradigmatischen Grabenkämpfen, die ohne jeden Erkenntnisgewinn sind. Deshalb kann eine entsprechende Selbstreflexion der Disziplin IB, wie sie mit der Debatte zwischen Rationalisten versus Reflexivisten begonnen hat, nichts schaden. Die Gefahr besteht in solchen an die Wurzel greifenden Debatten darin, dass die Disziplin vollkommen zersplittern kann. Dieses Risiko muss die IB dennoch eingehen, da in der jüngsten Vergangenheit häufig der Blick für das Wesentliche verlorengegangen ist. Damit ist vor allem der Blick für die Probleme gemeint. Der wissenschaftstheoretische Ansatz Laudans, der mit einer gesunden Dosis Pragmatismus versehen ist, könnte hierfür ein geeignetes Hilfsmittel sein. Laudans Verwerfen der Wahrheit als kognitives Ziel verbunden mit seinem Festhalten am Rationalitätsbegriff erscheint mir als Strategie für die IB von Vorteil. Laudans Theorie verlangt nicht nach methodischen Standards im Lakatosschen Sinne, die für die Sozialwissenschaften unerfüllbar sind. Die Vorstellung Kuhns, wissenschaftliche Forschung verlaufe infolge von Paradigmenwechseln, die voneinander inkommensurabel sind, bietet für Politikwissenschaftler eher ein Alibi, nicht mehr miteinander reden zu müssen. Der erkenntnistheoretische Anarchismus Feyerabends ist in vielen Aspekten vertretbar. Gerade Feyerabends Ablehnung des positivistischen Erklärungsideals, es gebe eine universelle ahistorische wissenschaftliche Methode, ist zu teilen. Seine Konsequenz, jegliche Form methodischer Regeln abzulehnen, erscheint mir zu radikal. Eine ebenso radikale Konsequenz wie Feyerabend zieht Rorty aus seiner Schlussfolgerung, dass Theorien nicht rational überprüft werden können. Rorty verfällt meiner Ansicht nach in einen unbefriedigenden Relativismus, wenn er die Suche nach Erkenntnis nur noch auf den Bereich der Konversation beschränkt. Die Funktionsweise einer großen Konversation, in der die Philosophie eine Stimme unter vielen Experten der jeweiligen Fakultäten besitzt, leuchtet mir wenig ein....
Ziel der Arbeit war es, das biotechnologische Potenzial des zellulären Schleimpilzes D. discoideum in Bezug auf die Expression von G-Protein-gekoppelten Rezeptoren im allgemeinen und von Muskarin-Rezeptoren im besonderen zu untersuchen. Langfristiges Ziel war dabei, mit Hilfe von Dictyostelium discoideum ein leicht zugängliches und kostengünstiges Screeningsystem zur Testung potenzieller muskarinerger Liganden zu entwickeln. Im Rahmen der Arbeit wurden alle humanen Muskarin-Rezeptor-Subtypen M1 bis M5 untersucht. Ausgehend von entsprechenden Expressionsplasmiden für Säugerzellen wurde zunächst mittels PCR die DNA der jeweiligen Rezeptor- Subtypen amplifiziert (Plasmide des Subtyps M2 wurden aus den Arbeiten von Herrn Dr. Guido Voith aus unserer Arbeitsgruppe übernommen). Die DNA wurde dabei zusätzlich mit Erkennungssequenzen für Restriktionsenzyme versehen, die eine nachfolgende Klonierung in Expressionsplasmide für Dictyostelium discoideum ermöglichten. Zur Klonierung wurden in erster Linie Expressionsplasmide verwendet, die in der Arbeitsgruppe um D. Manstein entwickelt wurden. Diese Plasmide ermöglichen die Expression der klonierten Gene unter der Kontrolle verschiedener Promotoren. Dies sind zum einen der starke, konstitutive Aktin-15 Promotor und zum anderen der schwache und in gewissen Grenzen regulierbare Discoidin-1-Mü Promotor. Außerdem wurde in Expressionsplasmiden der starke und induzierbare Ras-Promotor eingesetzt. Mit den klonierten Plasmiden wurden dann transgene Dictyostelium-discoideum-Stämme erzeugt. Die Stämme wurden zunächst mittels Northern-Blot auf das Vorhandensein und die Transkription der entsprechenden DNA der Muskarin- Rezeptor-Subtypen untersucht. Für alle Muskarin-Rezeptor-Subtypen konnten die jeweiligen Transkripte nachgewiesen werden. Als Nachweis für korrekt in die Zellmembran eingebaute Rezeptormoleküle dienten Bindungsstudien mit dem Radioliganden [3H]-N-Methylscopolamin. Für den humanen Subtyp M5 konnte kein funktionelles Rezeptorprotein nachgewiesen werden, unabhängig von der Art des Expressionsplasmides oder des verwendeten D.-discoideum- Stammes. Die funktionelle Expression der Rezeptoren M1, M3 und M4 konnte bei den beiden axenischen Stämmen AX2 und AX3 nachgewiesen werden. Bei Plasmiden mit Aktin-15-Promotor, welche zusätzlich zum Rezeptorgen eine Dictyostelium discoideum eigene Signalsequenz zwischen Promotor-DNA und Rezeptor-DNA enthielten, wurden etwa 300 Rezeptoren pro Zelle für M1 und M4 gefunden. In Abhängigkeit vom verwendeten Plasmid konnten für M3 etwa 200 bis 7000 Rezeptoren pro Zelle nachgewiesen werden. Parallel zu den Radioliganden-Bindungsstudien wurde mit den Rezeptor-Subtypen M1, M2 und M4 am Aufbau von Assays gearbeitet, mit denen eine mögliche Kopplung zwischen stimuliertem Rezeptor und endogenen G-Proteinen nachgewiesen werden könnte. Zum einen wurde untersucht, ob die Stimulation der Muskarin-Rezeptoren zu einer Polymerisation von Aktin-Filamenten führt, wie dies durch den endogenen Liganden cAMP geschieht. Zum anderen wurde durch mehrfach transformierte D.-discoideum-Stämme, die neben dem Rezeptorgen noch das Beta- Galaktosidasegen als Reportergen, die Alpha-Untereinheit eines humanen G-Proteins und einen endogenen Transkriptionsfaktor exprimierten untersucht, ob durch Stimulation der Muskarin-Rezeptoren eine Expression des Rezeptorgens induziert werden kann. Diese wäre dann in einem automatisierbaren Testsystem über Messung der Beta- Galaktosidaseaktivität leicht nachweisbar. Als Variante dieses Testsystem wurde schließlich der von Joachim Tillner (Tillner, 1997) bereits zur Untersuchung teratogener Stoffeigenschaften verwendete Versuchsaufbau herangezogen. In keinem der verwendeten Assays konnte jedoch eine Kopplung von fremd exprimiertem Rezeptor an endogene GProtein- vermittelte Signaltransduktionswege nachgewiesen werden. Als mögliche Gründe für diese Ergebnisse wurden folgende Punkte diskutiert: Zum einen sind die in unserem Expressionssystem erreichbaren Rezeptorzahlen von 300 bis 7000 heterolog exprimierten Rezeptoren pro Zelle vermutlich zu gering im Vergleich zu den um zwei Zehnerpotenzen höher liegenden endogenen Rezeptoren, zum anderen sind die Säugerzellen evolutionär wahrscheinlich zu weit von D. discoideum entfernt, als dass eine effektive Wechselwirkung des stimulierten Rezeptors mit der Zelle stattfinden kann. Dictyostelium discoideum hat sich daher als kaum geeignetes Testsystem zur Untersuchung G-Protein-gekoppelter Rezeptoren aus Säugern herausgestellt.
Most evaluation studies of active labour market policies (ALMP) focus on the microeconometric evaluation approach using individual data. However, as the microeconometric approach usually ignores impacts on the non-participants, it should be seen as a first step to a complete evaluation which has to be followed by an analysis on the macroeconomic level. As a starting point for our analysis we discuss the effects of ALMP in a theoretical labour market framework augmented by ALMP. We estimate the impacts of ALMP in Germany for the time period 1999-2001 with regional data of 175 labour office districts. Due to the high persistence of German labour market data the application of a dynamic model is crucial. Furthermore our analysis accounts especially for the inherent simultaneity problem of ALMP. For West Germany we find positive effects of vocational training and job creation schemes on the labour market situation, whereas the results for East Germany do not allow profound statements. JEL Classification: C33, E24, H43, J64, J68.
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
Recent progress in the understanding of the high density phase of neutron stars advances the view that a substantial fraction of the matter consists of hyperons. The possible impacts of a highly attractive interaction between hyperons on the properties of compact stars are investigated. We find that a hadronic equation of state with hyperons allows for a first order phase transition to hyperonic matter. The corresponding hyperon stars can have rather small radii of R ~ 8 km. PACS: 26.60+c, 21.65+f, 97.60.Gb, 97.60.Jd
Es steht ausser Zweifel, das der Schutz der Privatsphäre von Internet-Nutzern gegenwärtig unzureichend ist. Die Chance sich im Netz relativ weiträumig und frei zu bewegen, steht die Möglichkeit gegenüber allerlei Informationen über Internet-Nutzer zu sammeln und auszuwerten. Dies ist natürlich auch im Intranet möglich. Im Rahmen dieser Diplomarbeit wurden die verschiedenen Möglichkeiten überprüft, die zur Veröffentlichung von Datenschutzmassnahmen angeboten werden. Zunächst ist der OECD Privacy Statement Generator, dessen Principles Grundlage bei der Formulierung von Lufthansa Principles waren, auf Lufthansatauglichkeit untersucht worden. Dabei hat sich ergeben, dass trotz der theoretischen Übereinstimmung der Principles der Lufthansa AG mit denen der OECD, der Gebrauch des Generators bei Lufthansa in dieser Form nicht möglich ist. Da anfänglich eine Anpassung des Generators an Lufthansabedürfnisse geplant war, sind im Rahmen dieser Diplomarbeit Änderungsvorschläge gemacht worden. Die Anpassung des Codes erfolgte nicht, da dieser nur für öffentliche Stellen und nicht für Privatunternehmen zugänglich ist. Mit P3P entwickelte das W3C eine Datenschutztechnik, die für Nutzer die Kontrolle über persönliche Daten automatisiert und damit den Schutz der Privatsphäre und die Akzeptanz der User verbessert. Nach der Einführung des P3P- und APPEL-Vokabulars, mit dem man einerseits Datenschutzmassnahmen und andererseits Datenschutzpräferenzen ausdrücken kann, sollte daher geprüft werden, ob dieses Vokabular ausreicht, um Lufthansa-spezifische Aussagen zu machen und in wieweit diese erweiterbar bzw. anpassbar sind. Die Untersuchung hat ergeben, dass das Vokabular bis zu einem gewissen Masse ausreicht und es ein Element gibt, das EXTENSION Element, mit dem eine Erweiterung des P3P Standardvokabulars möglich ist. Im Rahmen dieser Arbeit wurden solche auf Lufthansa abgestimmte Erweiterungen sowohl für eine P3P Policy als auch für eine entsprechende APPEL Präferenz formuliert. Die Lufthansa AG hat somit mit P3P die Möglichkeit, Ihre Datenschutzpraktiken für den Mitarbeiter transparenter zu gestalten, da sie auch über das Standardvokabular hinausgehende Aussagen formulieren kann. In der Diplomarbeit sind ausserdem die sich zur Zeit auf dem Markt befindlichen Tools, die bei der Erstellung einer maschinenlesbaren Datenschutzmassnahme, der sog. Privacy Policy benutzt werden können, untersucht worden. Der IBM P3P Policy Editor scheint für den Gebrauch bei Lufthansa denkbar, da die Handhabung des Generators einfach ist. Der Mitarbeiter, der die Policy für seine Abteilung erstellen soll, braucht sich nicht mit den Einzelheiten des P3P Vokabulars auseinander setzten. Mit diesem Editor kann zunächst ein Basisgerüst einer Policy erstellt werden. Die mit dem P3P Element EXTENSION formulierten Erweiterungen müssen jedoch selbsterstellt werden und können nachträglich in das Basisgerüst der Policy miteingebunden werden. Zusätzlich zu der maschinenlesbaren Form einer Policy erstellt der IBM Editor auch eine menschenlesbare HTML-Version der Policy. Dies ist sehr von Vorteil, da in einem Arbeitsgang zwei Policy-Versionen erstellt werden. Im Vergleich zu dem Formulierungsentwurf des OECD Generators ist die menschenlesbare Version des IBM Editors ausserdem wesentlich kürzer und dadurch auch übersichtlicher. Im Ganzen ist es daher sinnvoller, den IBM Editor zu benutzen, als den OECD Generator neu zu programmieren und dann mit Hilfe eines anderen Tools die P3P Policy zu erstellen. Zur Erstellung einer APPEL Präferenz ist zur Zeit nur ein Hilfsmittel auf dem Markt erhältlich. Der Grund hierfür ist sicherlich, dass sich APPEL noch zu keinem Standard entwickelt hat, sondern sich noch in einem Entwurfsstadium befindet. Der APPEL Editor von JRC ist ähnlich wie der P3P Policy Editor von IBM aufgebaut. Auch hier müssen Erweiterungen selbst formuliert und in dem vom Editor erstellten Basisgerüst einer Präferenz eingebunden werden. Nachdem die grundsätzliche Erweiterbarkeit von P3P in dieser Diplomarbeit festgestellt wurde, sind die sog. User Agents behandelt worden. Von Bedeutung war neben der Funktionsweise der einzelnen User Agents ihre Handhabung des EXTENSION Elementes. Da zu erwarten ist, dass nur wenige Nutzer die Voreinstellungen ihrer Software selbst verändern und sich mit der APPEL Spezifikation auseinander setzten, wird der Standardkonfiguration eines P3P User Agents eine große Bedeutung beigemessen. Bei allen vorgestellten User Agents gab es verschiedene Sicherheitsniveaux bzgl. Datenschutz aus denen der Nutzer auswählen konnte. Entsprechend des Niveaux wurde die Präferenz des Nutzers automatisch konfiguriert. Bei allen war es ausserdem möglich, selbsterstellte APPEL Formulierungen zu importieren. Bei dem Proxy von JRC ist es möglich, Settings mit einzubinden, die das EXTENSION Element beinhalten. AT&T erlaubt dies nicht und von Microsoft fehlt hierzu jegliche Angabe. Bzgl. der Lufthansa AG erscheint es sinnvoll, den Mitarbeitern einen eigenen User Agent anzubieten, der alle zusätzlich formulierten Aspekte aufgreift und mit dem der Mitarbeiter seine Präferenzen bzgl. des Intranets leicht ausdrücken kann. Der Aufwand, den Mitarbeitern das erweiterte Vokabular für die Formulierung einer Präferenz zur Verfügung zu stellen, setzt voraus, dass jeder Mitarbeiter sich mit der Syntax und Semantik von P3P und APPEL auskennt. Dies ist im Vergleich zur Programmierung eines eigenen User Agents, der den Mitarbeitern zur Verfügung gestellt wird, aufwendiger und wahrscheinlich auch nicht realisierbar. Grundsätzlich kann durch diese Massnahmen das Vertrauen der Mitarbeiter ins Intranet und damit die Nutzung dieses Mediums gesteigert werden. Die vermehrte Nutzung des Intranets auch für private Zwecke, wie zum Beispiel der Buchung von Reisen oder die Abfrage nach Flügen etc., würde für beide Seiten auch wirtschaftlichen Nutzen bringen. Für die Mitarbeiter selbst käme es z.B. zu einer Zeitersparnis, da sie jetzt zur Buchung ihrer Reisen nicht mehr in die Reisestelle müssen. Dies hätte natürlich auch wirtschaftliche Auswirkungen, da der Aufwand, um zur Reisestelle zu kommen, wegfällt. Aber auch die Lufthansa AG hätte durch die transparentere Gestaltung ihrer Datenschutzpraktiken wirtschaftlichen Nutzen. Die Mitarbeiter z.B. in der Reisestelle würden durch das neue Vertrauen ihrer Kollegen ins Intranet und damit einhergehend die selbstständige Online-Buchungsmöglichkeit entlastet werden. Es könnten mehr Kapazitäten für andere Aufgaben frei werden. Das Ausmass der Vorteile für Lufthansa und Ihrer Mitarbeiter, die sich aus der Veröffentlichung von Datenschutzmaßnahmen ergeben und damit ist auch das vermehrte Vertrauen der Mitarbeiter ins Intranet gemeint, ist zur Zeit noch nicht in vollem Umfang erfassbar, da sich viele Intranetprojekte der Lufthansa AG noch im Entwicklungsstadium befinden. Für die Zukunft ist jedoch auch festzustellen, dass datenschutzfreundliche Technologien allein nicht die Lösung zur Sicherstellung des Datenschutzes im Inter- als auch im Intranet sein können. Vielmehr müssen die aufkommenden technischen Maßnahmen durch nationale und internationale Regelungen unterstützt und ergänzt werden. Erst durch Festlegung internationaler Konventionen, die den Datenschutz in Zusammenhang mit grenzüberschreitenden Computernetzwerken und Diensten regeln, kann ein effektiver und unabhängiger Kontrollmechanismus sowie die Möglichkeit zu Sanktionen gewährleistet werden. Die Veröffentlichung von Datenschutzmassnahmen gewährleistet leider nicht ihre Einhaltung.
The flying geese model, a theory of industrial development in latecomer economies, was developed in the 1930s by the Japanese economist Akamatsu Kaname (1896–1974). While rarely known in western countries, it is highly prominent in Japan and seen as the main economic theory underlying Japan’s economic assistance to developing countries. Akamatsu’s original interpretation of the flying geese model differs fundamentally from theories of western origin, such as the neoclassical model and Raymond Vernon’s product cycle theory. These differences include the roles of factors and linkages in economic development, the effects of demand and supply, as well as the dynamic and dialectical character of Akamatsu’s thinking. Later reformulations of the flying geese model, pioneered by Kojima Kiyoshi, attempt to combine aspects of Akamatsu’s theory with neoclassical thinking. This can be described as the “westernization” of the flying geese model. It is this reformulated interpretation that has become popular in Japan’s political discourse, a process that might be explained by the change in Japan’s perspective from that of a developing to that of an advanced economy. The position taken by Japan in its recent controversy with the World Bank, however, shows that many basic elements of Akamatsu’s thinking are still highly influential within both Japan’s academia and its government and are therefore relevant for understanding current debates on development theory.
The space-time dynamics and pion-HBT radii in central heavy ion-collisions at CERN-SPS and BNL-RHIC are investigated within a hydrodynamic simulation. The dependence of the dynamics and the HBT-parameters on the EoS is studied with different parametrizations of a chiral SU(3) sigma omega model. The selfconsistent collective expansion includes the e ects of e ective hadron masses, generated by the nonstrange and strange scalar condensates. Different chiral EoS show di erent types of phase transitions and even a crossover. The influence of the order of the phase transition and of the latent heat on the space-time dynamics and pion-HBT radii is studied. A small latent heat, i.e. a weak first-order chiral phase transition, or a smooth crossover lead to distinctly di erent HBT predictions than a strong first order phase transition. A quantitative description of the data, both at SPS energies as well as at RHIC energies, appears di cult to achieve within the ideal hydrodynamic approach using the SU(3) chiral EoS. A strong first-order quasi-adiabatic chiral phase transition seems to be disfavored by the pion-HBT data from CERN-SPS and BNL-RHIC.
We derive the quantum kinetic equation for a pure gluon plasma, applying the background field and closed-time-path method. The derivation is more general and transparent than earlier works. A term in the equation is found which, as in the classical case, corresponds to the color charge precession for partons moving in the gauge field. PACS numbers: 12.38.Mh, 25.75.-q, 24.85.+p, 11.15.Kc
We address the production of black holes at LHC in space times with compactified space-like large extra dimensions (LXD). Final state black hole production leads to suppression of high-PT jets, i.e. a sharp cut-o in (pp!jet+X). This signal is compared to the jet plus missing energy signature due to graviton production in the final state as proposed by the ATLAS collaboration. Time evolution and lifetimes of the newly created black holes are calculated based on the micro- canonical formalism. It is demonstrated that previous lifetime estimates of micro black holes have been dramatically underestimated. The creation of a large number of quasi-stable black holes is predicted with life times of hundred fm/c at LHC. Medium modifications of the black holes evaporation rate due to the quark gluon plasma in relativistic heavy ion collisions as well as provided by the cosmic fluid in the early universe are studied
We study the bound states of anti-nucleons emerging from the lower continuum in finite nuclei within the relativistic Hartree approach including the contributions of the Dirac sea to the source terms of the meson fields. The Dirac equation is reduced to two Schr¨odinger-equivalent equations for the nucleon and the anti-nucleon respectively. These two equations are solved simultaneously in an iteration procedure. Numerical results show that the bound levels of anti-nucleons vary drastically when the vacuum contributions are taken into account. PACS number(s): 21.10.-k; 21.60.-n; 03.65.Pm
Recent progress in the understanding of the high density phase of neutron stars advances the view that a substantial fraction of the matter consists of hyperons. The possible impacts of a highly attractive interaction between hyperons on the properties of compact stars are investigated.We find that a hadronic equation of state with hyperons allows for a first order phase transition to hyperonic matter. The corresponding hyperon stars can have rather small radii of R 8 km.
The production of black holes at Tevatron and LHC in spacetimes with compactified space-like large extra dimensions is studied. Either black holes can already be observed in ¯ pp collisions at s = 1.8 TeV or the fundamental gravity scale has to be above 1.4 TeV. At LHC the creation of a large number of quasi-stable black holes is predicted, with lifetimes beyond several hundred fm/c. A cut-off in the high-PT jet cross section is shown to be a unique signature of black hole production. This signal is compared to the jet plus missing energy signature due to graviton production in the final state as proposed by the ATLAS collaboration.
The in-medium properties of the vector mesons are known to be modified significantly in hot and dense hadronic matter due to vacuum polarisation e ects from the baryon sector in the Walecka model. The vector meson mass drops significantly in the medium due to the e ects of the Dirac sea. In the variational approach adopted in the present paper, these e ects are taken into account through a realignment of the ground state with baryon condensates. Such a realignment of the ground state becomes equivalent to summing of the baryonic tadpole diagrams in the relativistic Hartree approximation (RHA). The approximation scheme adopted here goes beyond RHA to include quantum e ects from the scalar meson and is nonperturbative and self consistent. It includes multiloop e ects, thus corresponding to a di erent approximation as compared to the one loop approximation of including scalar field quantum corrections. In the present work, we study the properties of the vector mesons in the hot and dense matter as modified due to such quantum correction e ects from the baryon as well as scalar meson sectors. These medium modifications of the properties of the vector mesons are reflected, through the shifting and broadening of the respective peaks, in the low mass dilepton spectra. There is broadening of the peaks due to corrections from scalar meson quantum e ects as compared to the relativistic Hartree approximation. It is seen to be rather prominent for the ! meson in the invariant mass plot. PACS number: 21.65.+f,12.40.Yx
The non-equilibrium quantum field dynamics is usually described in the closed-time-path formalism. The initial state correlations are introduced into the generating functional by non-local source terms. We propose a functional approach to the Dyson-Schwinger equation, which treats the non-local and local source terms in the same way. In this approach, the generating functional is formulated for the connected Green functions and one-particle-irreducible vertices. The great advantages of our approach over the widely used two-particle-irreducible method are that it is much simpler and that it is easy to implement the procedure in a computer program to automatically generate the Feynman diagrams for a given process. The method is then applied to a pure gluon plasma to derive the gauge-covariant transport equation from the Dyson-Schwinger equation in the background covariant gauge. We discuss the structure of the kinetic equation and show its relationship with the classical one. We derive the gauge-covariant collision part and present an approximation in the vicinity of equilibrium. The role of the non-local source kernel in the non-equilibrium system is discussed in the context of a free scalar field. PACS numbers: 12.38.Mh, 25.75.-q, 24.85.+p, 11.15.Kc
We compare different models for hadronic and quark phases of cold baryon rich matter in an attempt to find a deconfinement phase transition between them. For the hadronic phase we consider Walecka type mean field models which describe well the nuclear saturation properties. We also use the variational chain model which takes into account correlation effects. For the quark phase we consider the MIT bag model, the Nambu Jona-Lasinio and the massive quasiparticle models. By comparing pressure as a function of baryon chemical potential we find that crossings of hadronic and quark branches are possible only in some exceptional cases while for most realistic parameter sets these branches do not cross at all. Moreover, the chiral phase transition, often discussed within the framework of QCD motivated models, lies in the region where the quark phases are unstable with respect to the hadronic phase. We discuss possible physical consequences of these findings.
The high E(T) drop of J / psi to Drell-Yan ratio from the statistical c anti-c coalescence model
(2002)
The dependence of the J/psi yield on the transverse energy ET in heavy ion collisions is considered within the statistical c¯c coalescence model. The model fits the NA50 data for Pb+Pb collisions at the CERN SPS even in the high-ET region (ET >< 100 GeV). Here ET -fluctuations and ET -losses in the dimuon event sample naturally create the celebrated drop in the J/psi to Drell-Yan ratio.
The amount of proton stopping in central Pb+Pb collisions from 20 160 A·GeV as well as hyperon and antihyperon rapidity distributions are calcu- lated within the UrQMD model in comparison to experimental data at 40, 80 and 160 A·GeV taken recently from the NA49 collaboration. Further- more, the amount of baryon stopping at 160 A·GeV for Pb + Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central colli- sions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80 and 160 A·GeV are underestimated by up to factors of 3 - depending on the annihilation cross section employed - which might be addressed to missing multi-meson fusion channels in the UrQMD model. PACS 25.75.+r
We study central collision of Pb + Pb at 20, 40, 80 and 160 A·GeV within the UrQMD transport approach and compare rapidity distributions of ,K+,K and with the recent measurements from the NA49 Collaboration at 40, 80 and 160 A·GeV. It is found that the UrQMD model reasonably describes the data, however, systematically overpredicts the yield by < 20%, whereas the K+ yield is underestimated by < 15%. The K yields are in a good agreement with the experimental data, the yields are also in a reasonable correspondence with the data for all energies. We find that hadronic flavour exchange reactions largely distort the information about the initial strangeness production mechanism at all energies considered. PACS: 25.75.+r
We discuss the possibility of producing a new kind of nuclear system by putting a few antibaryons inside ordinary nuclei. The structure of such systems is calculated within the relativistic mean field model assuming that the nucleon and antinucleon potentials are related by the G parity transformation. The presence of antinucleons leads to decreasing vector potential and increasing scalar potential for the nucleons. As a result, a strongly bound system of high density is formed. Due to the significant reduction of the available phase space the annihilation probability might be strongly suppressed in such systems.
The recently published experimental dependence of the J/psi suppression pattern in Pb+Pb collisions at the CERN SPS on the energy of zero degree calorimeter EZDC are analyzed. It is found that the data obtained within the minimum bias analysis (using theoretical Drell-Yan ) are at variance with the previously published experimental dependence of the same quantity on the transversal energy of neutral hadrons ET . The discrepancy is related to the moderate centrality region: 100 << Np << 200 (Np is the number of nucleon participants). This could result from systematic experimental errors in the minimum bias sample. A possible source of the errors may be contamination of the minimum bias sample by o -target interactions. The data obtained within the standard analysis (using measured Drell-Yan multiplicity) are found to be much less sensitive to the contamination.
The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) theta - omega approach. The commonly adopted noninteracting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. Contrary, the chiral SU(3) model predicts temperature and density dependent e ective hadron masses and e ective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three di erent parametrizations of the model, which show di erent types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, freezing of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters di er considerably from those obtained in simple noninteracting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The in-medium masses turn out di er up to 150 MeV from their vacuum values.
We calculate p, ±,K± and (+ 0) rapidity distributions and compare to experimental data from SIS to SPS energies within the UrQMD and HSD transport approaches that are both based on string, quark, diquark (q, ¯q, qq, ¯q ¯q) and hadronic degrees of freedom. The two transport models do not include any explicit phase transition to a quark-gluon plasma (QGP). It is found that both approaches agree rather well with each other and with the experimental rapidity distributions for protons, s, ± and K±. In- spite of this apparent agreement both transport models fail to reproduce the maximum in the excitation function for the ratio K+/ + found experimen- tally between 11 and 40 A·GeV. A comparison to the various experimental data shows that this failure is dominantly due to an insu cient description of pion rapidity distributions rather than missing strangeness . The modest di erences in the transport model results on the other hand can be attributed to di erent implementations of string formation and frag- mentation, that are not su ciently controlled by experimental data for the elementary reactions in vacuum.
A canonical partition function for the two-component excluded volume model is derived, leading to two di erent van der Waals approximations. The one is known as the Lorentz-Berthelot mixture and the other has been proposed recently. Both models are analysed in the canonical and grand canonical ensemble. In comparison with the one-component van der Waals excluded volume model the suppression of particle densities is reduced in these two-component formulations, but in two essentially di erent ways. Presently used multi-component models have no such reduction. They are shown to be not correct when used for components with di erent hard-core radii. For high temperatures the excluded volume interaction is refined by accounting for the Lorentz contraction of the spherical excluded volumes, which leads to a distinct enhancement of lighter particles. The resulting e ects on pion yield ratios are studied for AGS and SPS data.
The amount of proton stopping in central Pb+Pb collisions from 20–160 A GeV as well as hyperon and antihyperon rapidity distributions are calculated within the UrQMD model in comparison to experimental data at 40, 80, and 160 A GeV taken recently from the NA49 collaboration. Furthermore, the amount of baryon stopping at 160A GeV for Pb+Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central collisions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80, and 160 A GeV are underestimated by up to factors of 3—depending on the annihilation cross section employed—which might be addressed to missing multimeson fusion channels in the UrQMD model. Pacs-Nr.: 25.75.2q, 24.10.Jv, 24.10.Lx
Im Rahmen einer Zusammenschau werden im hier vorliegenden Bericht landwirtschaftliche und den ländlichen Raum betreffende Entwicklungen eingeschätzt und, in Verbindung hiermit, künftige Umweltentlastungen sowie mögliche neue Umweltgefährdungen dargestellt. Im Mittelpunkt der Betrachtungen steht die Nahrungsmittelproduktion in Deutschland, wobei die Integration der deutschen Landwirtschaft in die europäische Landwirtschaft und die Weltwirtschaft und die hiermit einhergehenden äußeren Einflüsse einbezogen werden. Der Zeithorizont der Betrachtungen ist der Zeitraum bis 2030. ...
The lightest supersymmetric particle, most likely the lightest neutralino, is one of the most prominent particle candidates for cold dark matter (CDM). We show that the primordial spectrum of density fluctuations in neutralino CDM has a sharp cut-off, induced by two different damping mechanisms. During the kinetic decoupling of neutralinos, non-equilibrium processes constitute viscosity effects, which damp or even absorb density perturbations in CDM. After the last scattering of neutralinos, free streaming induces neutralino flows from overdense to underdense regions of space. Both damping mechanisms together define a minimal mass scale for perturbations in neutralino CDM, before the inhomogeneities enter the non- linear epoch of structure formation. We find that the very first gravitationally bound neutralino clouds ought to have masses above 10-6M , which is six orders of magnitude above the mass of possible axion miniclusters.
We study properties of compact stars with the deconfinement phase transition in their interiors. The equation of state of cold baryon-rich matter is constructed by combining a relativistic mean-field model for the hadronic phase and the MIT Bag model for the deconfined phase. In a narrow parameter range two sequences of compact stars (twin stars), which differ by the size of the quark core, have been found. We demonstrate the possibility of a rapid transition between the twin stars with the energy release of about 10 ^52 ergs. This transition should be accompanied by the prompt neutrino burst and the delayed gamma-ray burst.
A novel mechanism of H0 and strangelet production in hadronic interactions within the Gribov-Regge approach is presented. In contrast to traditional distillation approaches, here the production of multiple (strange) quark bags does not require large baryon densities or a QGP. The production cross section increases with center of mass energy. Rapidity and transverse momentum distributions of the H 0 are predicted for pp collisions at E_lab = 160 AGeV (SPS) and \sqrt s = 200 AGeV (RHIC). The predicted total H 0 multiplicities are of order of the Omega-baryon yield and can be accessed by the NA49 and the STAR experiments.
The production of multiple strange baryons in pp interactions is studied. Here one can directly probe the microscopic decay of color flux tubes, allowing to differentiate between different string models and a statistical description of the hadronization. To analyse the different stages of a heavy ion collision the time evolution of the elastic and inelastic collision rates in central Pb+Pb interactions are studied. The microscopic simulation supports the idea of separated phases (non-equilibrium -> chemical freeze-out -> kinetic freeze-out) in the evolution of the system. The spectra and abundances of Lambda(1520), K 0(892) and other resonances are used to study the break-up dynamics of the source between chemical and thermal freeze-out.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Der Stern der Erlösung
(2002)
'Der Stern der Erlösung' von Franz Rosenzweig (1886-1929) ist eines der klassischen Werke der deutschen Philosophie des 20. Jahrhunderts. Das Werk ist nach klassischen Schema Gott - Welt - Mensch angelegt. Es ist nicht nur (aber auch) als jüdisch-religionsphilosophische Schrift anzusehen, sondern steht zwischen dem deutschen Neukantinaismus, der Lebens- und der Existenz(ial)philosophie. Die digitale Neuausgabe entspricht dem Text der Druckversionen, normalisiert aber zwecks besserer Recherche einige eigenwillige oder fehlerhafte Schreibweisen (Egypten, Kierkegard). Die Publikation enthält eine Einführung in das Werk von Bernhard Casper.
The STAR Collaboration reports the first observation of exclusive rho 0 photoproduction, AuAu-->AuAu rho 0, and rho 0 production accompanied by mutual nuclear Coulomb excitation, AuAu-->Au [star] Au [star] rho 0, in ultraperipheral heavy-ion collisions. The rho 0 have low transverse momenta, consistent with coherent coupling to both nuclei. The cross sections at sqrt[sNN]=130 GeV agree with theoretical predictions treating rho 0 production and Coulomb excitation as independent processes.
Inclusive transverse momentum distributions of charged hadrons within 0.2<pT<6.0 GeV/c have been measured over a broad range of centrality for Au+Au collisions at sqrt[sNN]=130 GeV. Hadron yields are suppressed at high pT in central collisions relative to peripheral collisions and to a nucleon-nucleon reference scaled for collision geometry. Peripheral collisions are not suppressed relative to the nucleon-nucleon reference. The suppression varies continuously at intermediate centralities. The results indicate significant nuclear medium effects on high-pT hadron production in heavy-ion collisions at high energy.
We report STAR results on the azimuthal anisotropy parameter v2 for strange particles K0S, Lambda , and Lambda -bar at midrapidity in Au+Au collisions at sqrt[sNN]=130 GeV at the Relativistic Heavy Ion Collider. The value of v2 as a function of transverse momentum, pt, of the produced particle and collision centrality is presented for both particles up to pt~3.0 GeV/c. A strong pt dependence in v2 is observed up to 2.0 GeV/c. The v2 measurement is compared with hydrodynamic model calculations. The physics implications of the pt integrated v2 magnitude as a function of particle mass are also discussed.
We report the first measurement of strange ( Lambda ) and antistrange ( Lambda -bar) baryon production from sqrt[sNN]=130 GeV Au+Au collisions at the Relativistic Heavy Ion Collider (RHIC). Rapidity density and transverse mass distributions at midrapidity are presented as a function of centrality. The yield of Lambda and Lambda -bar hyperons is found to be approximately proportional to the number of negative hadrons. The production of Lambda -bar hyperons relative to negative hadrons increases very rapidly with transverse momentum. The magnitude of the increase cannot be described by existing hadronic string fragmentation models alone.
We report the first observation of K*(892)0--> pi K in relativistic heavy ion collisions. The transverse momentum spectrum of (K*0+K*0)/2 from central Au+Au collisions at sqrt[sNN]=130 GeV is presented. The ratios of the K*0 yield derived from these data to the yields of negative hadrons, charged kaons, and phi mesons have been measured in central and minimum bias collisions and compared with model predictions and comparable e+e-, pp, and p-barp results. The data indicate no dramatic reduction of K*0 production in relativistic heavy ion collisions despite expected losses due to rescattering effects.
Elliptic flow holds much promise for studying the early-time thermalization attained in ultrarelativistic nuclear collisions. Flow measurements also provide a means of distinguishing between hydrodynamic models and calculations which approach the low density (dilute gas) limit. Among the effects that can complicate the interpretation of elliptic flow measurements are azimuthal correlations that are unrelated to the reaction plane (nonflow correlations). Using data for Au + Au collisions at sqrt[sNN]=130 GeV from the STAR time projection chamber, it is found that four-particle correlation analyses can reliably separate flow and nonflow correlation signals. The latter account for on average about 15% of the observed second-harmonic azimuthal correlation, with the largest relative contribution for the most peripheral and the most central collisions. The results are also corrected for the effect of flow variations within centrality bins. This effect is negligible for all but the most central bin, where the correction to the elliptic flow is about a factor of 2. A simple new method for two-particle flow analysis based on scalar products is described. An analysis based on the distribution of the magnitude of the flow vector is also described.
We present the first measurement of midrapidity vector meson phi production in Au+Au collisions at RHIC (sqrt[sNN]=130 GeV) from the STAR detector. For the 11% highest multiplicity collisions, the slope parameter from an exponential fit to the transverse mass distribution is T=379±50(stat)±45(syst) MeV, the yield dN/dy=5.73±0.37(stat)±0.69(syst) per event, and the ratio N phi /Nh- is found to be 0.021±0.001(stat)±0.004(syst). The measured ratio N phi /Nh- and T for the phi meson at midrapidity do not change for the selected multiplicity bins.
Entwurf und Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken
(2002)
Angesichts der überragenden Bedeutung der modernen Kommunikationstechnik in allen Lebensbereichen kommt auch den digitalen Bibliotheken ein wachsendes Gewicht zu. Dabei spielen nicht nur die platzsparende Speicherung, sondern auch die schnelle Datenübermittlung und der unmittelbare Zugang zu den Dokumenten eine wichtige Rolle. Da eine solche Bibliothek über ein offenes Netz betrieben wird, erhalten in diesem Zusammenhang Sicherheitsaspekte ein essentielles Gewicht. Die vorliegende Diplomarbeit geht diesen Fragen nach und zeigt Wege auf, wie die bestehenden Sicherheitsrisiken minimiert werden können. Ziel dieser Arbeit war daher der Entwurf und die Realisierung von Sicherheitsmechanismen für eine Infrastruktur für digitale Bibliotheken. Dabei wurde speziell auf die INDIGO-Infrastruktur eingegangen; sie stellt eine verteilte Infrastruktur für digitale Bibliotheken dar. Der erste Teil dieser Diplomarbeit enthält eine Einführung in die Grundlagen der INDIGO-Infrastruktur und der Sicherheit. In Kapitel [*] wurden die INDIGO-Infrastruktur und ihre Komponenten erläutert; in Kapitel [*] folgte anschließend die Beschreibung einiger kryptographischer Verfahren und Sicherheitsprotokolle. Im zweiten Teil dieser Arbeit wurden Sicherheitsmechanismen für die INDIGO-Infrastruktur entworfen. In dieser Entwurfsphase erfolgte zunächst in Kapitel [*] die Sicherheitsanalyse der Infrastruktur. Basierend auf dieser Analyse wurden in Kapitel [*] Sicherheitskonzepte für diese Infrastruktur entwickelt. Während der gesamten Entwurfsphase standen die Sicherheitsanforderungen Vertraulichkeit, Authentizität, Integrität, Verbindlichkeit und die Autorität stets im Mittelpunkt des Interesses. Im dritten und letzten Teil der Arbeit wurden die Sicherheitsmechanismen für die INDIGO-Infrastruktur realisiert. Dabei wurden die in Abschnitt [*] beschriebenen Sicherheitsrichtlinien der Infrastruktur implementiert. Die Beschreibung der Implementierung erfolgte in Kapitel [*]. Die wichtigsten Modifikationen des INDIGO-Servers betrafen folgende Punkte: * Sicherung und Aufbau der verbindlichen Kommunikationskanäle durch den Einsatz von SSL- bzw. TLS-basierten Server-zu-Server Verfahren. * Realisierung von Sicherheitsmechanismen zur Verifikation der digital signierten Dokumente und Dokumentmethoden. * Erweiterung des INDIGO-Servers um feingranuliert konfigurierbare Zugriffsmechanismen, die verteilt auf drei unterschiedliche Ebenen den Zugriff der Anwender (bzw. Dokumentmethoden) auf seine Ressourcen kontrollieren. Neben den Modifikationen des INDIGO-Servers wurden zwei neue Clients zur Kommunikation mit dem INDIGO-Server und eine Anwendung zur Erzeugung der digitalen Signatur der Dokumente entwickelt. Ferner wurden einige neue Metadokumente und Dokumentmethoden erstellt, um die neuen Eigenschaften der Infrastruktur zu demonstrieren. Bei der Realisierung der Sicherheitsmechanismen wurde größter Wert auf die Abwärtskompatibilität, Konfigurierbarkeit und Modularität gelegt. Die Abwärtskompatibilität zur ursprünglichen Infrastruktur wird beispielsweise erreicht, indem die bereits existierenden Metadokumente und Dokumentmethoden bei dem modifizierten Server auch verwendet werden können. Diese müssen - falls nötig - minimal um die digitale Signatur der Autoren ergänzt werden. Das Sicherheitsverhalten des INDIGO-Servers läßt sich beliebig über seine Konfigurationsdatei ändern (Konfigurierbarkeit). Alle wichtigen Sicherheitsmechanismen des modifizierten Servers lassen sich den Wünschen des Betreibers anpassen. Dadurch ist sichergestellt, daß jeder Betreiber den Server seinen jeweiligen Sicherheitsbedürfnissen entsprechend betreiben kann. Der Betreiber kann beispielsweise über die Einstellung seiner Konfigurationsdatei bestimmen, ob die Clients sich bei der Kommunikation mit seinem Server identifizieren müssen. Zudem kann er beispielsweise festlegen, ob die Dokumentmethoden, die keine korrekte digitale Signatur besitzen, ausgeführt werden dürfen oder nicht. Die Konfigurierbarkeit des Servers hinsichtlich der Sicherheitsmechanismen geht sogar so weit, daß man den Server im Normalmodus betreiben kann; in diesem Modus sind alle Sicherheitsmechanismen des Servers ausgeschaltet. Die Modularität hinsichlich der Sicherheitsmechanismen wurde bei der Implementierung durch die Verteilung dieser Mechanismen auf die unterschiedlichen und eigenständigen Klassen erzielt, die jeweils eine wohldefinierte Eigenschaft und Aufgabe besitzen. Diese Vorgehensweise führt dazu, daß bei einer Weiterentwicklung des Servers um neue Sicherheitsdienste nur die wenigen betroffenen Klassen modifiziert werden müssen, ohne daß der gesamte Server davon betroffen ist. So kann der INDIGO-Server beispielsweise um den Authentisierungsdienst Kerberos [Stei88] erweitert werden, in dem nur die entsprechende Authentisierungsklasse des Servers (IndigoAuthorization-Klasse) ergänzt wird.
In dieser Arbeit werden grundlegende Untersuchungen zum Verständnis der dynamischen Wechselwirkungsmechanismen atomarer Projektile mit Festkörperoberflächen vorgestellt, die zur Emission von Sekundärionen führen. Der zentrale Ansatzpunkt ist dabei die Vermessung der Dynamik über die geschwindigkeits- und winkeldifferentielle Verteilung der emittierten Sekundärionen. Dazu wurde ein neuartiges Spektrometer entwickelt, in dem jedes in einem homogenen elektrischen Feld abgelenkte Sekundärion durch seine Flugzeit (TOF) und den Auftreffort auf einen 2-dimensionalen (XY) ortsempfindlichen Detektor charakterisiert wird. Das Prinzip basiert auf dem in Gastargetexperimenten erfolgreich eingesetzten Frankfurter Meßsystem COLTRIMS (COLd Target Recoil Ion Momentum Spectroscopy). Dieses System wurde weiterentwickelt und erstmalig in Frankfurt in einem Festkörperexperiment zur geschwindigkeits- und winkeldifferentiellen Spektrometrie von Sekundärionen angewendet. Ein zusätzliches Merkmal gegenüber herkömmlichen Spektrometern ist die Möglichkeit der einfachen Variation des Einfallswinkels 0p vom Projektil zum Target. Die korrekte Transformation der gemessenen Daten in eine 3-dimensionale Anfangsgeschwindigkeitsverteilung bedingt eine möglichst präzise Eichung des Spektrometers. Dazu wurde die in diesem Zusammenhang neuartige Methode des Strahlprofilmonitors entwickelt und eingesetzt. Durch die Wechselwirkung des Projektils mit einem nicht lokalisierten Gastarget erzeugt es auf seinem Weg durch das Spektrometer eine Spur aus Ionen. Die Gasionen befinden sich im Verhältnis zu den von dem Festkörper emittierten Sekundärionen nahezu in Ruhe. Daher kann über die Analyse der Projektilspur auf die zur Eichung notwendigen, aber im Experiment nicht direkt zugänglichen Parameter, wie Flugzeit (T0) und Auftreffort (x0/y0) für Teilchen mit der Geschwindigkeit v0z = v0x = v0y = 0, geschlossen werden. Die systematische Variation von Projektil- (He0/N0/Ar0, Ep = 0.2 - 2.2 MeV, 0p = 37°-78° relativ zur Oberflächennormalen) und Targeteigenschaften (Au/C/LiF/Al) erlaubt ein gezieltes Studium der dynamischen Wechselwirkung zwischen Projektilen und Festkörperoberflächen. Das untersuchte H+-Sekundärion entstammt einer Festkörperoberfläche bedeckenden quasistabilen Kontaminationsschicht, die im wesentlichen aus den Adsorbaten H2, H2O, CxHy besteht. Die gemessenen H+-Geschwindigkeitsverteilungen besitzen ein Maximum etwa bei v0 ungefähr gleich 25-35 km/s mit Ausläufern (abhängig von 0p) bis hin zu 240 km/s. Bei sinkender Projektilgeschwindigkeit zeigt die Verteilung der emittierten H+-Sekundärionen bei hohen Emissionsgeschwindigkeiten (v0 > 60 km/s) eine stark ausgeprägte Asymmetrie in der von dem einfallenden Projektil und der Oberflächennormalen definierten Ebene. Ionen werden mit einer hohen Geschwindigkeit (bis zu 140 km/s bei 0p = 45°) unter einem Winkel von ca. 90° zum Projektil, unabhängig von 0p, emittiert. Diese Asymmetrie wird durch eine binäre Kollision des Projektils mit dem Wasserstoff verursacht. Die Variation der Projektilgeschwindigkeit ist korreliert mit der deponierten Energie des Projektils im Festkörper. Daher kann in der Dynamik der Sekundärionen deutlich der Beitrag des nuklearen Anteils an der totalen Energiedeposition aufgezeigt und getrennt werden. Bei Emissionsgeschwindigkeiten v0 < 60 km/s zeigt sich eine starke Abhängigkeit von den Targeteigenschaften. Bei konstantem Einfallswinkel beobachten wir eine Verschiebung der Maxima von v0 max ungefähr gleich 26.5 km/s bei Au-, über 27.9 km/s bei Al- bis hin zu 32.5 km/s bei LiF-Targets. Es zeigt sich keine meßbare Abhängigkeit vom Einfallswinkel des Projektils bei Auund C-Targets, dagegen eine deutliche Verschiebung der Maxima hin zu größeren Geschwindigkeiten bei dem Al- (v0 max ungefähr gleich 27.5 km/s - 30 km/s) und dem LiF-Target (v0 max ungefähr gleich 32.5 km/s - 35.5 km/s) mit einer Vergrößerung von 0p. Ionen mit v0 < 30 km/s werden zum Großteil rückwärts in Richtung des einfallenden Projektils emittiert. Au und C sind gute, LiF und das mit einer Al2O3-Schicht überzogene Al dagegen schlechte elektrische Oberflächenleiter. Die Verschiebung der Verteilungen bei einem schlechten elektrischen Leiter ist ein Hinweis auf den zeitabhängigen Zerfall des Projektilspurpotentials im Festkörper. Die Zunahme der Emissionsgeschwindigkeit v0 bei Vergrößerung von 0p ist in der Vergrößerung der effektiven Targetdicke begründet und ein Hinweis auf eine targetdickenabhängige Neutralisationszeit des geladenen Spurkerns durch Elektronen des Substrats. Korrelationen im Sekundärionenemissionsprozeß bezüglich Impuls- und Energieerhaltung zwischen einem emittierten H+-Sekundärion und einem möglichen zweiten Sekundärion wurden nicht beobachtet. Über die Eichung hinaus eröffnen sich zusätzlich noch einige vielversprechende Anwendungsmöglichkeiten des Strahlprofilmonitors. Zum einen ermöglicht er a) in der Gasmassenspektrometrie eine exakte Korrektur der Ionenflugzeit unabhängig vom Ort der Ionisation und zum anderen bildet er b) eine innovative Methode zur Kartographie lokaler elektrischer Felder und c) ferner einen alternativen Zugang zur Vermessung von Projektilstreuwinkeln. Die Verwendung eines ortsempfindlichen Detektors in der „kinematischen“ Materialanalyse verbindet simultan gute Tiefenprofilauflösung mit dem Nachweis eines großen Raumwinkels zugunsten einer besseren Statistik. Die Kenntnis der Emissionscharakteristik bewährt sich zudem in der Massenanalyse in der Unterscheidung von Ionen fast identischer Massen.
The focus of this article is the analysis of the inflation risk of European real estate securities. Following both a causal and a final understanding of risk, the analysis is twofold. First, to examine the causal influence of inflation on short- and long-term asset returns, different regression approaches are employed based on the methodology of Fama and Schwert (1977). Hedging capacities against expected inflation are found only for German open-end funds. Secondly, different shortfall risk measures are used to study whether an investment in European real estate securities protects against a negative real return at the end of a given investment period.
Who knows what when? : The information content of pre-IPO market prices : [Version March/June 2002]
(2002)
To resolve the IPO underpricing puzzle it is essential to analyze who knows what when during the issuing process. In Germany, broker-dealers make a market in IPOs during the subscription period. We examine these pre-issue prices and find that they are highly informative. They are closer to the first price subsequently established on the exchange than both the midpoint of the bookbuilding range and the offer price. The pre-issue prices explain a large part of the underpricing left unexplained by other variables. The results imply that information asymmetries are much lower than the observed variance of underpricing suggests.
We propose a new framework for modelling time dependence in duration processes on financial markets. The well known autoregressive conditional duration (ACD) approach introduced by Engle and Russell (1998) will be extended in a way that allows the conditional expectation of the duration process to depend on an unobservable stochastic process, which is modelled via a Markov chain. The Markov switching ACD model (MSACD) is a very flexible tool for description and forecasting of financial duration processes. In addition the introduction of an unobservable, discrete valued regime variable can be justified in the light of recent market microstructure theories. In an empirical application we show, that the MSACD approach is able to capture several specific characteristics of inter trade durations while alternative ACD models fail. Furthermore, we use the MSACD to test implications of a sequential trade model.
Executive Stock Option Programs (SOPs) have become the dominant compensation instrument for top-management in recent years. The incentive effects of an SOP both with respect to corporate investment and financing decisions critically depend on the design of the SOP. A specific problem in designing SOPs concerns dividend protection. Usually, SOPs are not dividend protected, i.e. any dividend payout decreases the value of a manager’s options. Empirical evidence shows that this results in a significant decrease in the level of corporate dividends and, at the same time, into an increase in share repurchases. Yet, few suggestions have been made on how to account for dividends in SOPs. This paper applies arguments from principal-agent-theory and from the theory of finance to analyze different forms of dividend protection, and to address the relevance of dividend protection in SOPs. Finally, the paper relates the theoretical analysis to empirical work on the link between share repurchases and SOPs.
Untersuchungsgegenstand ist der empirische Gehalt der ökonomischen Theorie eines Hedgings auf Unternehmensebene. In den USA wurde die Hedging-Theorie in einer Reihe von empirischen Studien aufgegriffen. Die Befunde sind zumeist konsistent mit dem Erklärungsansatz von Froot/Scharfstein/Stein (1993), wonach eine Verringerung der Cashflow-Volatilität – unter der Annahme steigender Außenfinanzierungskosten – zu einer Reduzierung von Unterinvestitionskosten führt. Bei deutschen Unternehmen besitzt dieser Ansatz bemerkenswerterweise jedoch nur einen geringen Erklärungsgehalt. Die Ergebnisunterschiede können auf unterschiedliche Kapitalmarktverhältnisse zurückgeführt werden: Die unterstellten steigenden Kosten der Außenfinanzierung besitzen für deutsche Unternehmen aufgrund der Dominanz des Bezugsrechtsverfahrens sowie der Rolle der Hausbank als Mechanismus zur Überwindung von Informationsproblemen eine vergleichsweise geringere Bedeutung. Die Managerinteressen erweisen sich bei deutschen Unternehmen als eine wesentliche Hedging-Determinante. Zwischen der Höhe des gebundenen Managervermögens und der Hedging-Wahrscheinlichkeit besteht entsprechend der Hedging-Theorie ein signifikanter positiver Zusammenhang. Entgegen den amerikanischen Befunden kann jedoch eine disziplinierende Wirkung von Großaktionären auf die Hedging-Entscheidung nicht beobachtet werden. Zur Berücksichtigung der spezifischen deutschen Kapitalmarktverhältnisse wird der Einfluss von Bankenbeteiligungen und Familienunternehmen auf die Hedging-Entscheidung untersucht. Ein Bankeneinfluss auf die Derivateeinsatz-Entscheidung kann jedoch nicht festgestellt werden. Entgegen Diversifikations- und Kapitalmarktüberlegungen besteht bei Familienunternehmen interessanterweise eine signifikant geringere Hedging-Wahrscheinlichkeit.
Frankfurt am Main bezeichnet sich gern als multikulturelle Stadt. Etwa ein Drittel der Bevölkerung stammt nicht aus Deutschland, genauer gesagt leben ca. 180.000 Menschen aus 181 Nationen in der Mainmetropole. Es handelt sich um Menschen, die aus den unterschiedlichsten Gründen wie Arbeit, Studium, Heirat oder auch durch Verfolgung und Flucht zufällig oder beabsichtigt in Frankfurt leben. Es sind Männer und Frauen aus Europa, Asien und Afrika, die oft seit langem hier sind, es sind aber auch Kinder und Jugendliche, die hier geboren und aufgewachsen sind. Zu den Frankfurtern nichtdeutscher Herkunft zählen auch zwischen 3000 und 4000 EritreerInnen. Die meisten dieser Menschen verließen in den frühen 1980er Jahren als Flüchtlinge ihr Land. Sie flohen vor den Auswirkungen eines fast dreißig Jahre andauernden Krieges, in dem Eritrea um die Unabhängigkeit von Äthiopien kämpfte. Manche waren aktiv beteiligt, einige erlebten Folter und Gefängnis, viele hatten Angst vor diesen Repressalien. Ein großer Teil wurde aber auch erst hier geboren. Eritrea, ein relativ kleines Land am Horn von Afrika, ist heute eine unabhängige Nation, doch die Probleme dauern an. Die wirtschaftliche und soziale Lage, vor allem jedoch der immer wieder aufbrechende Konflikt mit dem mächtigen Nachbar Äthiopien hält viele der eritreischen Flüchtlinge ab, in ihr Heimatland zurückzukehren. Doch dies ist nur ein Aspekt des eritreischen Lebens in Frankfurt. Abgesehen von kleineren Zeitungsnotizen über stattfindende (meist kirchliche) Feste oder Neueröffnungen eritreischer Restaurants weiß man wenig über diese Menschen; wie sie hier leben, mit welchen Problemen sie umzugehen haben und was sie bewegt. Analog zur Informationslage über die Heimat dieser Menschen erfährt nur derjenige etwas, der ein besonderes Interesse zeigt. Selbst wenn mehrere Hundert eritreische Flüchtlinge auf die Straße gehen, um für Frieden in ihrem Land zu demonstrieren, findet dies kaum ein Echo in der deutschen Berichterstattung. Unter den afrikanischen Ländern steht die eritreische Exilgemeinschaft hinter der marokkanischen an zweiter Stelle und gehört somit zu den zahlenmäßig größten außereuropäischen Gruppen der Stadt. Doch trotz der relativ hohen Anzahl handelt es sich um eine unauffällige Gemeinschaft, die selten das Interesse der Öffentlichkeit oder der Wissenschaft findet. Andere Migrantengruppen wie Türken, Jugoslawen oder Marokkaner, die seit Jahrzehnten zum multikulturellen Stadtbild Frankfurts gehören, scheinen nicht nur wegen ihrer höheren Anzahl präsenter, sie wecken auch das Interesse der Wissenschaft. Die Untersuchungen von eritreischen Flüchtlingen beschränken sich dagegen bisher hauptsächlich auf ihre Eingliederung in die direkten Nachbarstaaten Eritreas. Die Frage nach Segregation, Akkulturation oder Integration wurde hier in zahlreichen Publikationen gestellt, sowie auch jene zum Themenbereich Ethnizität und Identität am Horn von Afrika. Die eritreischen Flüchtlinge in Deutschland blieben weitgehend unerforscht. Nach meiner Kenntnis existiert keine ausführliche Publikation zu den Auswirkungen im deutschen Exil. Wie sich z.B. der Befreiungskrieg auf das Identitätsbewußtsein der Exileritreer, auf ihre Integration oder auch auf das Verhältnis zu den in Deutschland lebenden Äthiopiern auswirkt, dies sind Fragen, die bisher unbeantwortet blieben. Eine ausführlichere Darstellung zum Leben der eritreischen Gemeinschaft in der BRD nennt zwar einen engen Zusammenhalt der Gruppe und ein ausgeprägtes Identitätsbewußtsein, doch sie äußert sich nicht zu Ursachen, bzw. Folgen (WUS, 1991). Die vorhandenen Informationen zur eritreischen Exilgemeinschaft in Deutschland beschränken sich meist auf offizielle Daten (Daffa, 1995; Schmalz-Jacobsen/Hansen, 1997). Auch Untersuchungen zu eritreischen Flüchtlingsfrauen und –mädchen in Frankfurt/Main geben wenig Aufschluß; es handelt sich um kurze Abhandlungen der Lebenssituation und eine Darstellung der Probleme als Flüchtling im Allgemeinen (ISD, 1986a; ISD, 1986b). Bereits vor dieser Untersuchung erlebte ich durch meine Bekanntschaft mit einigen jüngeren Eritreern in Frankfurt, daß die Exilanten trotz z.T. verschiedener Erfahrungshintergründe eine selbstbewußte, starke und geschlossene Gemeinschaft bilden, in der Loyalität und Solidarität eine große Rolle spielen. Damit einher geht das offen geäußerte und starke Geschichts- und Identitätsbewußtsein der Menschen als Angehörige der Nation Eritrea, das meinen ethnologischen Ambitionen entgegenkam, sie jedoch auch stark beeinflußte.
For the Neuer Markt year 2001 is not considered as one of its best, compared to its prior performance. Investors who once piled into the Neuer Markt have now become wary of the exchange, which was launched in 1997 as Europe’s leading growth market and answer to the U.S.‘s Nasdaq Stock Market. The Neuer Markt’s reputation has been marred by the misleading information policy from several Neuer Markt companies, publishing false annual and quarterly data. Some of these companies are responsible for having misinformed investors of their pending bankruptcies. Under these circumstances, it is time to find an explanation for the dramatic loss of credibility in Neuer Markt enterprises. Finding an answer, two aspects come under consideration: • What type of information (annual versus quarterly reports) was available for investors and • of what quality were these provided data. Interim reports can be seen as important instrument in the reporting system to inform all kinds of investors. For this reason we examine the quality of Neuer Markt quarterly reports by concentrating on the disclosure level of 52 Neuer Markt companies‘ reports for the third quarter 1999 and 2000. To enable comparison we establish four disclosure indexes that measure the report’s compliance with the Neuer Markt Rules and Regulations as well as with IAS and US GAAP interim reporting standards. The results demonstrate that the level of disclosure has increased over time. Then we aim to find typical attributes of Neuer Markt enterprises that provide high or low level of accounting information in their quarterly reports. Nevertheless the study also shows that there is not any correlation between market capitalization and the quality of interim reports. However, it can be suggested that an additional enforcement mechanism could improve quality and lure investors back. A step towards this aim is the standardization project of quarterly reports of Deutsche Boerse AG.
Portfolio choice and estimation risk : a comparison of Bayesian approaches to resampled efficiency
(2002)
Estimation risk is known to have a huge impact on mean/variance (MV) optimized portfolios, which is one of the primary reasons to make standard Markowitz optimization unfeasible in practice. Several approaches to incorporate estimation risk into portfolio selection are suggested in the earlier literature. These papers regularly discuss heuristic approaches (e.g., placing restrictions on portfolio weights) and Bayesian estimators. Among the Bayesian class of estimators, we will focus in this paper on the Bayes/Stein estimator developed by Jorion (1985, 1986), which is probably the most popular estimator. We will show that optimal portfolios based on the Bayes/Stein estimator correspond to portfolios on the original mean-variance efficient frontier with a higher risk aversion. We quantify this increase in risk aversion. Furthermore, we review a relatively new approach introduced by Michaud (1998), resampling efficiency. Michaud argues that the limitations of MV efficiency in practice generally derive from a lack of statistical understanding of MV optimization. He advocates a statistical view of MV optimization that leads to new procedures that can reduce estimation risk. Resampling efficiency has been contrasted to standard Markowitz portfolios until now, but not to other approaches which explicitly incorporate estimation risk. This paper attempts to fill this gap. Optimal portfolios based on the Bayes/Stein estimator and resampling efficiency are compared in an empirical out-of-sample study in terms of their Sharpe ratio and in terms of stochastic dominance.
Eine Beteiligung des Managements an Gewinngrößen spielt eine wichtige Rolle bei der Ausrichtung von Managemententscheidungen auf die Ziele der Unternehmenseigentümer. Dieser Beitrag zeigt auf, unter welchen Gewinnermittlungsregeln ein Agent zu optimalen Investitionsentscheidungen motiviert wird, wenn er an den Residualgewinnen beteiligt wird. Dieser Beitrag beschäftigt sich insbesondere mit der Frage, ob zum Zwecke einer optimalen Investitionssteuerung, Fertigerzeugnisse zu Vollkosten oder zu Teilkosten bewertet werden sollen. Vor diesem Hintergrund werden ebenfalls verschiedene Wertansätze für Forderungen auf ihre Anreizwirkungen untersucht.
Recent changes in accounting regulation for financial instruments (SFAS 133, IAS 39) have been heavily criticized by representatives from the banking industry. They argue for retaining a historical cost based "mixed model" where accounting for financial instruments depends on their designation to either trading or nontrading activities. In order to demonstrate the impact of different accounting models for financial instruments on the financial statements of banks, we develop a bank simulation model capturing the essential characteristics of a modern universal bank with investment banking and commercial banking activities. In our simulations we look at different scenarios with periods of increasing/decreasing interest rates using historical data and with different banking strategies (fully hedged; partially hedged). The financial statements of our model bank are prepared under different accounting rules ("Old" IAS before implementation of IAS 39; current IAS) with and without hedge accounting as offered by the respective sets of rules. The paper identifies critical issues of applying the different accounting rules for financial instruments to the activities of a universal bank. It demonstrates important shortcomings of the "Old" IAS rules (before IAS 39), and of the current IAS rules. Under the current IAS rules the results of a fully hedged bank may have to show volatility in income statements due to changes in market interest rates. Accounting results of a partially hedged bank in the same scenario may be less affected even though there are economic gains or losses.
Rating agencies state that they take a rating action only when it is unlikely to be reversed shortly afterwards. Based on a formal representation of the rating process, I show that such a policy provides a good explanation for the empirical evidence: Rating changes occur relatively seldom, exhibit serial dependence, and lag changes in the issuers’ default risk. In terms of informational losses, avoiding rating reversals can be more harmful than monitoring credit quality only twice per year.
Substantial research attention has been devoted to the pension accumulation process, whereby employees and those advising them work to accumulate funds for retirement. Until recently, less analysis has been devoted to the pension decumulation process – the process by which retirees finance their consumption during retirement. This gap has recently begun to be filled by an active group of researchers examining key aspects of the pension payout market. One of the areas of most interesting investigation has been in the area of annuities, which are financial products intended to cover the risk of retirees outliving their assets. This paper reviews and extends recent research examining the role of annuities in helping finance retirement consumption. We also examine key market and regulatory factors.
This paper examines the provision of managerial investment incentives by an accounting based incentive scheme in a multiperiod agency setting in which an impatient manager has to choose between mutually exclusive investment projects. We study the properties of accounting rules that motivate an impatient manager to exert unobservable effort and to make optimal investment decisions. In this analysis, a realized cash flow constitutes a noisy signal that contains information about the unknown profitability of the investment project. By observing these signals a principal is able to revise his prior beliefs about the agent´s investment decision. The revision of the principal´s prior beliefs leads to a trade off between the provision of efficient investment incentives and intertemporalsharing of output.
The properties of two measures of charge fluctuations D-tilde and DeltaPhiq are discussed within several toy models of nuclear collisions. In particular their dependence on mean particle multiplicity, multiplicity fluctuations, and net electric charge are studied. It is shown that the measure DeltaPhiq is less sensitive to these trivial biasing effects than the originally proposed measure D-tilde. Furthermore the influence of resonance decay kinematics is analyzed and it is shown that it is likely to shadow a possible reduction of fluctuations due to QGP creation.
Dt. Fassung: Rechtsentfremdungen: Zum gesellschaftlichen Mehrwert des zwölften Kamels, Zeitschrift für Rechtssoziologie 21, 2000, 189-215 und in Gunther Teubner (Hg.) Die Rückgabe des zwölften Kamels: Niklas Luhmann in der Diskussion über Gerechtigkeit. Lucius & Lucius, Stuttgart 2000, 189-215. Englische Fassung: Alienating Justice: On the Social Surplus Value of the Twelfth Camel. In: David Nelken and Jirí Pribán (Hg.) Law's New Boundaries: Consequences of Legal Autopoiesis. Ashgate, London 2001, 21-44. Französische Fassung: Les multiples aliénations du droit : Sur la plus-value sociale du douzième chameau. Droit et Société 47, 2001, 75-100. Polnische Fassung: Sprawiedliwosc alienujaca : O dodatkowej wartosci dwunastego wielblada. Ius et Lex 1, 2002, 109-132. Italienische Fassung: Le molteplici alienazioni del diritto : Sul plusvalore sociale del dodicesimo camello. In: Annamaria Rufino und Gunther Teubner, Il diritto possibile: Funzioni e prospettive del medium giuridico. Guerini, Milano, 2005, 93-130.
The transverse mass spectra of Omega, J/psi and psi' in Pb+Pb collisions at 158 AGeV are studied within a hydrodynamical model of the quark gluon plasma expansion and hadronization. The model reproduces the existing data with the common hadronization parameters: temperature T=T_H = 170 MeV and average collective transverse velocity v_T = 0.2.
Results of the production of Xi and Xi-bar hyperons in central Pb+Pb interactions at 158 GeV/c per nucleon are presented. This analysis utilises a global reconstruction procedure, which allows a measurement of 4pi integrated yields to be made for the first time. Inverse slope paramters, which are determined from an exponential fit to the transverse mass spectra, are shown. Central rapidity densities are found to be 1.49 +- 0.08 and 0.33 +- 0.04 per event per unit of rapidity for Xi and Xi-bar respectively. Yields integrated to full phase space are 4.12 +- 0.02 and 0.77 +- 0.04 for Xi and Xi-bar. The ratio of Xi-bar/Xi at mid-rapidity is 0.22 +- 0.03.
Measurements of charged pion and kaon production in central Pb+Pb collisions at 40, 80 and 158 AGeV are presented. These are compared with data at lower and higher energies as well as with results from p+p interactions. The mean pion multiplicity per wounded nucleon increases approximately linearly with s_NN^1/4 with a change of slope starting in the region 15-40 AGeV. The change from pion suppression with respect to p+p interactions, as observed at low collision energies, to pion enhancement at high energies occurs at about 40 AGeV. A non-monotonic energy dependence of the ratio of K^+ to pi^+ yields is observed, with a maximum close to 40 AGeV and an indication of a nearly constant value at higher energies.The measured dependences may be related to an increase of the entropy production and a decrease of the strangeness to entropy ratio in central Pb+Pb collisions in the low SPS energy range, which is consistent with the hypothesis that a transient state of deconfined matter is created above these energies. Other interpretations of the data are also discussed.
The transverse mass spectra of J/psi and psi' mesons and Omega hyperons produced in central Au+Au collisions at RHIC energies are discussed within a statistical model used successfully for the interpretation of the SPS results. The comparison of the presented model with the future RHIC data should serve as a further crucial test of the hypothesis of statistical production of charmonia at hadronization. Finally, in case of validity, the approach should allow to estimate the mean transverse flow velocity at the quark gluon plasma hadronization.
Experiment NA49 at the Cern SPS uses a large acceptance detector for a systematic study of particle yields and correlations in nucleus-nucleus, nucleon-nucleus and nucleon-nucleon collisions. Preliminary results for Pb+Pb collisions at 40, 80 and 158 A*GeV beam energy are shown and compared to measurements at lower and higher energies.
Strange particle production in A+A interactions at 158 AGeV is studied by the CERN experiment NA49 as a function of system size and collision geometry. Yields of charged kaons, phi and Lambda are measured and compared to those of pions in central C+C, Si+Si and centrality-selected Pb+Pb reactions. An overall increase of relative strangeness production with the size of the system is observed which does not scale with the number of participants. Arguing that rescattering of secondaries plays a minor role in small systems the observed strangeness enhancement can be related to the space-time density of the primary nucleon-nucleon collisions.
The large acceptance and high momentum resolution as well as the significant particle identification capabilities of the NA49 experiment at the CERN SPS allow for a broad study of fluctuations and correlations in hadronic interactions. In the first part recent results on event-by-event charge and p_t fluctuations are presented. Charge fluctuations in central Pb+Pb reactions are investigated at three different beam energies (40, 80, and 158 AGeV), while for the p_t fluctuations the focus is put on the system size dependence at 158 AGeV. In the second part recent results on Bose Einstein correlations of h-h- pairs in minimum bias Pb+Pb reactions at 40 and 158 AGeV, as well as of K+K+ and K-K- pairs in central Pb+Pb collisions at 158 AGeV are shown. Additionally, other types of two particle correlations, namely pi p, Lambda p, and Lambda Lambda correlations, have been measured by the NA49 experiment. Finally, results on the energy and system size dependence of deuteron coalescence are discussed.
Rapidity distributions for $\Lambda$ and $\bar{\Lambda}$ hyperons in central Pb-Pb collisions at 40, 80 and 158 A$\cdot$GeV and for ${\rm K}_{s}^{0}$ mesons at 158 A$\cdot$GeV are presented. The lambda multiplicities are studied as a function of collision energy together with AGS and RHIC measurements and compared to model predictions. A different energy dependence of the $\Lambda/\pi$ and $\bar{\Lambda}/\pi$ is observed. The $\bar{\Lambda}/\Lambda$ ratio shows a steep increase with collision energy. Evidence for a $\bar{\Lambda}/\bar{\rm p}$ ratio greater than 1 is found at 40 A$\cdot$GeV.
Bose-Einstein correlations of charged kaons were measured near mid-rapidity in central Pb+Pb collisions at 158 A GeV by the NA49 experiment at the CERN SPS. Source radii were extracted using the Yano-Koonin-Podgoretsky and Bertsch-Pratt parameterizations. The results are compared to published pion data. The measured m_perp dependence for kaons and pions is consistent with collective transverse expansion of the source and a freeze-out time of about 9.5 fm.
s.a.: Das Recht hybrider Netzwerke. Zeitschrift für das gesamte Handelsrecht und Wirtschaftsrecht 165, 2001, 550-575.. Italienische Fassung: Diritti ibridi: la costituzionalizzazione delle reti private di governance. In: Gunther Teubner, Costituzionalismo societario. Armando, Roma 2004 (im Erscheinen).
By order of 29 November 1999 the Federal Court of Justice (Bundesgerichtshof) referred to the European Court of Justice (ECJ) for a preliminary ruling under Article 234 EC two questions regarding the interpretation of the "doorstep-selling directive", and the "consumer credit directive", which arose in the course of proceedings involving Mr and Mrs Heininger, who took out from the Bayerische Hypo- und Vereinsbank AG bank a loan to purchase a flat, secured by a charge on the property (Grundschuld). Five years later they sought to cancel the credit agreement, maintaining that an estate agent had called uninvited at their home and induced them to purchase the flat in question and - at the same time acting on a self-employed basis as agent for the bank - to enter into the loan agreement, without informing them of their right of cancellation. Article 1 para. 1 of the doorstep-selling directive provides that it applies to contracts under which a trader supplies goods or services to a consumer and which are concluded during a visit by a trader to the consumer's home where the visit does not take place at the express request of the consumer'. Article 3 para. 2 a) of that directive provides that the directive shall not apply to contracts for the construction, sale and rental of immovable property or contracts concerning other rights relating to immovable property. Article 4 of the directive provides that traders shall be required to give consumers written notice of their right of cancellation. Article 5 provides that the consumer shall have the right to cancel the contract within seven days from receipt by the consumer of the notice. Article 2 of the consumer credit directive provides that it shall not apply to credit agreements intended primarily for the purpose of acquiring or retaining property rights in land or in an existing or projected building, and that Article 1 a) and Articles 4 to 12 of the directive shall not apply to credit agreements, secured by mortgage on immovable property. The German legislation transposing the doorstep-selling directive (the "HWiG") provides for a right of cancellation by the consumer within a period of one week, if a transaction is entered into away from the trader's business premises. The cooling-off period does not start to run until the customer receives a notice in writing containing information on this right and if that notice is not given, the right of cancellation will not lapse until one month after both parties have performed their obligations under the agreement in full. Section 5 para. 2 of the HwiG provides that where the transaction also falls within the scope of the legislation transposing the consumer credit directive (the "VerbrKrG"), only the provisions of the latter are to apply. Section 3 para. 2 of the VerbrKrG, in setting out the exceptions to the scope of that law, provides that inter alia Section 7 (right of cancellation) shall not apply to credit agreements in which credit is subject to the giving of security by way of a charge on immovable property, and is granted on usual terms for credits secured by a charge on immovable property and the intermediate financing of the same. Given this legal framework it is obvious that the Heiningers could not cancel the credit agreement according to the VerbrKrG. Although the agreement constitutes a consumer credit under section 1 VerbrKrG, the right of revocation is excluded by section 3 para. 2 VerbrKrG, the exclusion of which is backed by the consumer credit directive. Although the credit agreement was entered into away from the banks business premises, they as well could not cancel it under the HWiG since this law is not applicable to consumer credit agreements. Thus, the claim of the Heiningers was denied by German courts until the Federal Court of Justice raised the question, if the subsidiarity clause in section 5 para. 2 of the HWiG constitutes a contradiction to the provisions of the door step selling directive.
Der Titel der Tagung, deren Beiträge dieser Band dokumentiert, ist Programm: Jenseits der postmodernen Abschiedsstimmung, in die manche Reflexion über die Zukunft des Staates je nach theoretischer und politischer Orientierung melancholisch oder mit Schadenfreude verfällt, setzt er voraus, was eigentlich selbstverständlich sein sollte: dass es auch in Zukunft den Staat weder theoretisch noch praktisch zu verabschieden gilt. Er versucht deutlich zu machen, dass es im Jahre 1 eines neuen Jahrtausends in der Berliner Republik nicht mehr um eine Fortsetzung der allgemeinen Verunsicherung der achtziger und neunziger Jahre gehen kann. Es reicht nicht theoretisch (und manchmal – so scheint es – nur theoretisch und ohne zur Kenntnis zu nehmen, welche Rolle moderne Staaten in den Industriegesellschaften faktisch spielen) zu bezweifeln, ob der Staat der Zukunft noch souverän, national, sozial, steuernd, intervenierend etc. sein könne, um nur einige Attribute des Staates zu nennen, die Gegenstand der skeptischen Überlegungen sind. Rückblickend auf die Debatten um die Steuerungsfähigkeit des Staates, die Krise des Sozialstaats, Deregulierung, Privatisierung und Entbürokratisierung sowie Internationalisierung und Globalisierung ist es an der Zeit, Lösungswege zur Diskussion zu stellen. Nach der soziologischen Entzauberung und philosophischen Dekonstruktion des Staates bedarf es gegenwärtig einer Gegenbewegung: der praxisfähigen Rekonstruktion normativer Leitbilder. ...
The transverse mass spectra of Omega hyperons and phi mesons measured recently by STAR Collaboration in Au+Au collisions at sqrt(s_NN) = 130 GeV are described within a hydrodynamic model of the quark gluon plasma expansion and hadronization. The flow parameters at the plasma hadronization extracted by fitting these data are used to predict the transverse mass spectra of J/psi and psi' mesons.
Reflexive transnational law : the privatisation of civil law and the civilisation of private law
(2002)
The author examines the emergence of a transnational private law in alternative dispute resolution bodies and private norm formulating agencies from a reflexive law perspective. After introducing the concept of reflexive law he applies the idea of law as a communicative system to the ongoing debate on the existence of a New Law Merchant or lex mercatoria. He then discusses some features of international commercial arbitration (e.g. the lack of transparency) which hinder self-reference (autopoiesis) and thus the production of legal certainty in lex mercatoria as an autonomous legal system. He then contrasts these findings with the Domain Name Dispute Resolution System, which as opposed to Lex Mercatoria was rationally planned and highly formally organised by WIPO and ICANN, and which is allowing for self-reference and thus is designed as an autopoietic legal system, albeit with a very limited scope, i.e. the interference of abusive domain name registrations with trademarks (cybersquatting). From the comparison of both examples the author derives some preliminary ideas regarding a theory of reflexive transnational law, suggesting that the established general trend of privatisation of civil law need to be accompanied by a civilisation of private law, i.e. the constitutionalization of transnational private regimes by embedding them into a procedural constitution of freedom.
With new data available from the SPS, at 40 and 80 GeV/A, I review the systematics of bulk hadron multiplicities, with prime focus on strangeness production. The classical concept of strangeness enhancement in central AA collisions is reviewed, in view of the statistical hadronization model which suggests to understand strangeness enhancement to arise chiefly in the transition from the canonical to the grand canonical version of that model. I. e. enhancement results from the fading away of canonical suppression. The model also captures the striking strangeness maximum observed in the vicinity of sqrt s approx 8 GeV. A puzzle remains in the understanding of apparent grand canonical order at the lower SPS, and at AGS energies.
Attribution and detection of anthropogenic climate change using a backpropagation neural network
(2002)
The climate system can be regarded as a dynamic nonlinear system. Thus traditional linear statistical methods are not suited to describe the nonlinearities of this system which renders it necessary to find alternative statistical techniques to model those nonlinear properties. In addition to an earlier paper on this subject (WALTER et al., 1998), the problem of attribution and detection of the observed climate change is addressed here using a nonlinear Backpropagation Neural Network (BPN). In addition to potential anthropogenic influences on climate (CO2-equivalent concentrations, called greenhouse gases, GHG and SO2 emissions) natural influences on surface air temperature (variations of solar activity, volcanism and the El Niño/Southern Oscillation phenomenon) are integrated into the simulations as well. It is shown that the adaptive BPN algorithm captures the dynamics of the climate system, i.e. global and area weighted mean temperature anomalies, to a great extent. However, free parameters of this network architecture have to be optimized in a time consuming trial-and-error process. The simulation quality obtained by the BPN exceeds the results of those from a linear model by far; the simulation quality on the global scale amounts to 84% explained variance. Additionally the results of the nonlinear algorithm are plausible in a physical sense, i.e. amplitude and time structure. Nevertheless they cover a broad range, e.g. the GHG-signal on the global scale ranges from 0.37 K to 1.65 K warming for the time period 1856-1998. However the simulated amplitudes are situated within the discussed range (HOUGHTON et al., 2001). Additionally the combined anthropogenic effect corresponds to the observed increase in temperature for the examined time period. In addition to that, the BPN succeeds with the detection of anthropogenic induced climate change on a high significance level. Therefore the concept of neural networks can be regarded as a suitable nonlinear statistical tool for modeling and diagnosing the climate system.
Vielleicht hätte sich außerhalb der Fachwissenschaft niemand für das Weltklimaproblem interessiert, wären da nicht zwei brisante, miteinander gekoppelte Fakten: Die Menschheit ist hochgradig von der Gunst des Klimas abhängig. Es kann uns daher nicht gleichgültig sein, was mit unserem Klima geschieht. Und: Die Menschheit ist mehr und mehr dazu übergegangen, das Klima auch selbst zu beeinflussen. Daraus erwächst uns allen eine besondere Verantwortung. ...
Die Leistungsfähigkeit moderner Grafikhardware erreicht ein Niveau, auf dem sich selbst aufwändig gestaltete 3D-Szenen in kürzester Zeit berechnen lassen. Die Möglichkeiten, die diese Systeme zur Navigation und Interaktion im dreidimensionalen Raum bieten, erscheinen vielen Anwendern jedoch nicht intuitiv genug. Das Ziel der vorliegenden Arbeit war es, neue Navigations- und Interaktionstechniken für räumliche Anwendungen zu entwerfen und anhand einer prototypischen Implementierung die Eignung dieser Techniken für die Interaktion mit einem virtuellen Modell des Rubik’s Cube zu untersuchen. Da die entwickelten Verfahren ihre Tauglichkeit insbesondere bei der Interaktion über klassische Ein- und Ausgabegeräte unter Beweis stellen sollten (Maus, Tastatur und 2D-Display), waren geeignete Abbildungen der zu beherrschenden Freiheitsgrade zu konzipieren. Die Beschreibung grundlegender Aspekte der menschlichen Wahrnehmung führte zum Konzept der 3D-Metapher, welche die Durchführung einer dreidimensionalen Operation mit Hilfe von 2D-Eingabegeräten erklärt. Einzelne Interaktionsaufgaben des 3D-Raums wurden dargestellt und Beispiele von metaphorischen Konzepten für ihre Implementierung gegeben. Nach der Darstellung der am Rubik’s Cube auftretenden Interaktionsformen wurden metaphorische Konzepte für die Operationen Inspektion und Rotation entworfen und ihre besonderen Eigenschaften beschrieben; hierbei wurde zudem auf spezielle Verfahren eingegangen, die bei der Implementierung dieser Metaphern eingesetzt wurden. Im Rahmen einer Benutzerstudie wurde die Bedienung der konzipierten Interaktionsmetaphern im praktischen Einsatz getestet. Hierbei wurden insbesondere die Kriterien Intuitivität, Effizienz und Erlernbarkeit untersucht sowie die zeitliche Performance und Fehlerhäufigkeiten beim Einsatz der unterschiedlichen Werkzeuge analysiert. Die vorliegende Arbeit bietet eine Reihe von Ansätzen für künftige Erweiterungen, wie zum Beispiel die Weiterentwicklung zu einer Autorenumgebung für interaktive Anwendungen oder die Integration eines Kommunikationskanals zwischen den einzelnen Interaktionsmetaphern, um auf diese Weise auch komplexe Verhaltensmuster implementieren zu können.
Grafik-Hardware ist programmierbar geworden. Graphic Processing Units (GPUs) der neuen Generation wie der GeForce3 von NVIDIA enthalten Prozessoren, die es dem Software-Entwickler erlauben kurze Routinen auf der Grafik-Hardware auszuführen. Ich gebe in dieser Arbeit einen umfassenden Überblick über die Architekur und Leistungsfähigkeit dieser neuen Chipgeneration, zeige deren Stärken und Schwächen auf und diskutiere Verbesserungsvorschläge. Als Teil der Arbeit präsentiere ich einige von mir entwickelte Schattierungsverfahren, sowie eine Wassersimulation. Diese Demonstratoren sind darauf ausgerichtet vollständig auf den Prozessoren der neuen Grafikchip- Generation zu laufen. Als Antwort auf die Mängel der zur Zeit verfügbaren Application Programming Interfaces stelle ich ein alternatives Interface zur Steuerung der neuen GPUKomponenten vor, das insbesondere die Austauschbarkeit und Kombinierbarkeit von GPU-Programmen unterstützt.
Vortrag gehalten an der Tagung "The XVI International Conference on Ultrarelativistic Nucleus-Nucleus Collisions, organized by SUBATECH Laboratory", in Nantes, France, 18-24 Juli 2002.
Rapidity distributions for Lambda and anti-Lambda hyperons in central Pb-Pb collisions at 40, 80 and 158 AGeV and for K 0 s mesons at 158 AGeV are presented. The lambda multiplicities are studied as a function of collision energy together with AGS and RHIC measurements and compared to model predictions. A different energy dependence of the Lambda/pi and anti-Lambda/pi is observed. The anti-Lambda/Lambda ratio shows a steep increase with collision energy. Evidence for a anti-Lambda/anti-p ratio greater than 1 is found at 40 AGeV.
In this paper we present recent results from the NA49 experiment for Lambda and Lambda hyperons produced in central Pb+Pb collisions at 40, 80 and 158 A GeV. Transverse mass spectra and rapidity distributions for Lambda are shown for all three energies. The shape of the rapidity distribution becomes flatter with increasing beam energy. The multiplicities at mid-rapidity as well as the total yields are studied as a function of collision energy including AGS measurements. The ratio Lambda/pi at mid-rapidity and in 4 pi has a maximum around 40 A GeV. In addition, Lambda rapidity distributions have been measured at 40 and 80 A GeV, which allows to study the Lambda Lambda ratio.
Zielsetzung der ultrarelativistischen Schwerionenphysik ist es, hoch verdichtete und stark erhitzte Kernmaterie (gemeint ist hierbei nicht nur die Materie der Atomkerne, sondern allgemein stark wechselwirkende Materie) im Labor zu erzeugen und deren Eigenschaften zu untersuchen. Gitter-QCD Rechnungen sagen bei einer kritischen Energiedichte von 1-2 GeV/fm3 einen Übergang der hadronischen Materie in eine partonische Phase, dem Quark-Gluon-Plasma, voraus. Neben anderen Observablen wurde die Seltsamkeitsproduktion als mögliche Signatur für den Materiezustand quasifreier Quarks und Gluonen vorgeschlagen. Im Vergleich zu elementaren Nukleon-Nukleon-Reaktionen beobachtet man in Schwerionenkollisionen generell eine Überhöhung der Seltsamkeitsproduktion. Inwieweit dieser Unterschied bei allen Schwerpunktenergie auf rein hadronische Phänomene zurückgeführt werden kann, oder ob partonische Gleichgewichtseffekte eine wesentliche Rolle spielen, ist derzeit eines der wichtigen Themen der Schwerionenphysik. Antworten auf diese Fragen erhofft man sich aus der Untersuchung der Energieabhängigkeit der Erzeugung seltsamer Hadronen. Die NA49 Kollaboration hat deshalb am CERN-SPS ein Energie-Scan Programm aufgelegt, in dem zentrale Blei-Blei-Kollisionen bei 40, 80 und 158 A·GeV untersucht wurden. In dieser Arbeit wird die Produktion von Lambda und Antilambda Hyperonen bei den drei verschiedenen Strahlenergien untersucht. Lambda Hyperonen, die 30-60% der produzierten s-Quarks enthalten, erlauben neben der Seltsamkeitsproduktion gleichzeitig auch den durch die kollidierenden Kerne erzeugten Effekt der Baryonendichte zu studieren. Das NA49 Experiment führt präzise Messungen des hadronischen Endzustands über einen weiten Akzeptanzbereich durch. Die geladenen Sekundärteilchen werden in vier hochauflösenden Spurdriftkammern gemessen. Neutrale seltsame Teilchen (Lambda, Antilambda und K0s) werden anhand ihrer Zerfallstopologie identifiziert. Die untersuchten Lambda Hyperonen werden über drei Rapiditätseinheiten um den Bereich zentraler Rapidität und mit Transversalimpulsen von 0,4 und 2,5 GeV/c gemessen. Die Temperaturparameter der Lambda und Antilambda Transversalimpulsverteilungen bei zentraler Rapidität sind für die drei Energien im Rahmen der Fehler gleich. Als Funktion der Schwerpunktenergie beobachtet man einen Anstieg des Lambda-Temperaturparameters, was durch eine Erhöhung des kollektiven transversalen Flusses erklärt werden kann. Erste Ergebnisse zur Proton-Produktion zeigen einen ähnlichen Trend. Die Rapiditätsverteilungen der Lambda sind breiter als die der Antilambda-Hyperonen. Die Lambda Rapiditätsverteilung verbreitert sich mit ansteigender Schwerpunktenergie von einer bei zentraler Rapidität konzentrierten Verteilung bei 40 A·GeV zu einem flachen Verlauf bei 158 A·GeV. Die Lambdas enthalten Beiträge der extrem kurzlebigen Sigma 0, die elektromagnetisch in ein Lambda und ein Photon zerfallen. Die in der Analyse selektierten Lambda und Antilambda sind aufgrund der gewählten Qualitätskriterien nahezu frei von Beiträgen mehrfachseltsamer Baryonen. Der systematische Fehler der Spektren konnte zu 9% abgeschätzt werden. Die Korrekturen und die Analyseprozedur wurden durch die Extraktion des K0s Mesons bei 158 A·GeV und den Vergleich dieser Ergebnisse mit denen der geladenen Kaonen überprüft. Man stellt eine gute Übereinstimmung fest. Zusammen mit Ergebnissen bei niedrigeren Energien läßt sich die Anregungsfunktion der Lambda und AntiLambda Hyperonen studieren. Während die Lambda Multiplizität bei mittlerer Rapidität nach dem Anstieg bei niedrigen Energien im SPS-Energiebereich leicht abfällt bzw. die totale Multiplizität saturiert, beobachtet man für die AntiLambda einen stetigen Anstieg als Funktion der Schwerpunktenergie. Das <Lambda>/<Pi>-Verhältnis in Kern-Kern-Kollisionen zeigt einen steilen Anstieg im AGS-Energiebereich mit anschließendem Maximum und einem Abfall bei SPS-Energien. Dagegen beobachtet man in Nukleon-Nukleon-Reaktionen eine Saturation dieses Verhältnisses bei etwa der höchsten AGS-Energie. Die Normierung auf die Pionen dient dem Vergleich der Produktionsraten in Kern-Kern-Stößen mit denen der elementaren Systeme und ist unabhängig von der Anzahl der beteiligten Nukleonen. Das Maximum des Lambda/Pi Verhältnisses liegt zwischen 10 und 40 A·GeV, wie es von statistischen Modellen vorhergesagt wird. Die Energieabhängigkeit des Lambda/Pi-Verhältnisses läßt sich dementsprechend gut mit dem Statistischen Modell von Cleymans, Redlich et al. beschreiben. Der generelle Trend des Lambda/Pi Verhältnisses wird von den mikroskopischen Modellen (UrQMD, HSD, RQMD) richtig wiedergegeben, wobei jedoch die Datenpunkte (besonders für 40 A·GeV) unterschätzt werden. Die Vorhersagen des UrQMD- und HSD-Modells für die Lambda Rapiditätsverteilung zeigen sehr gute Übereinstimmung mit den Daten. Die Diskrepanz im Lambda/Pi Verhältnis ist somit auf die überschätzte Pion-Produktion zurückzuführen. Die AntiLambda Produktion wird von dem UrQMD- und RQMD-Modell um mehr als einen Faktor zwei unterschätzt. Die Lambda und Antilambda Produktionsraten für alle drei Energien und die totale K0s Multiplizität bei 158 A·GeV fügen sich in einer statistischen Modellanalyse von Becattini in die Systematik der anderen Teilchen ein. Der Seltsamkeits-Saturationsfaktor gamma s zeigt keine große Änderung als Funktion der Energie. Das AntiLambda/Lambda Verhältnis bei mittlerer Rapidität, das den Paarproduktionsprozess widerspiegelt, steigt rapide von AGS- bis RHIC-Energien an. Der gleiche Trend ist für das ¯p/p Verhältnis beobachtbar. Das AntiLambda/¯p Verhältnis erlaubt das Zusammenspiel der Produktions und Annihilationsprozesse zu studieren. Im SPS-Energiebereich steigt dieses Verhältnis mit abnehmender Schwerpunktenergie leicht an. Die Ergebnisse der vorliegenden Arbeit wurden auf der Strange-Quark-Matter Konferenz 2001 [1] und der Quark-Matter Konferenz 2002 [2] vorgestellt und diskutiert.
Excitation functions for quasi-elastic scattering have been measured at backward angles for the systems 32,34S+197Au and 32,34S+208Pb for energies spanning the Coulomb barrier. Representative distributions, sensitive to the low energy part of the fusion barrier distribution, have been extracted from the data. For the fusion reactions of 32,34S with 197Au couplings related to the nuclear structure of 197Au appear to be dominant in shaping the low energy part of the barrier distibution. For the system 32S+208Pb the barrier distribution is broader and extends further to lower energies, than in the case of 34S+208Pb. This is consistent with the interpretation that the neutron pick-up channels are energetically more favoured in the 32S induced reaction and therefore couple more strongly to the relative motion. It may also be due to the increased collectivity of 32S, when compared with 34S.