Refine
Year of publication
- 2002 (1268) (remove)
Document Type
- Article (514)
- Doctoral Thesis (190)
- Part of Periodical (117)
- Part of a Book (97)
- Review (88)
- Working Paper (83)
- Book (49)
- Preprint (47)
- Conference Proceeding (23)
- diplomthesis (22)
Language
- German (862)
- English (360)
- French (18)
- Portuguese (11)
- mis (5)
- Spanish (5)
- Multiple languages (3)
- Turkish (2)
- Italian (1)
- Polish (1)
Has Fulltext
- yes (1268) (remove)
Is part of the Bibliography
- no (1268) (remove)
Keywords
- Rezension (49)
- Deutschland (26)
- Literatur (20)
- Frankfurt <Main> / Universität (17)
- Frankfurt <Main> (15)
- Theater (14)
- Vormärz (14)
- Phonetik (12)
- Deutsch (11)
- Phonologie (11)
Institute
- Physik (85)
- Extern (71)
- Medizin (66)
- Rechtswissenschaft (48)
- Biochemie und Chemie (47)
- Wirtschaftswissenschaften (38)
- Biowissenschaften (32)
- Gesellschaftswissenschaften (31)
- Pharmazie (25)
- Informatik (22)
The synchronization of neuronal firing activity is considered an important mechanism in cortical information processing. The tendency of multiple neurons to synchronize their joint firing activity can be investigated with the 'unitary event' analysis (Grün, 1996). This method is based on the nullhypothesis of independent Bernoulli processes and can therefore not tell whether coincidences observed between more than two processes can be considered "genuine" higher- order coincidences or whether they might be caused by coincidences of lower order that coincide by chance ("chance coincidences"). In order to distinguish between genuine and chance coincidences, a parametric model of independent interaction processes (MIIP) is presented. In the framework of this model, Maximum-Likelihood estimates are derived for the firing rates of n single processes and for the rates with which genuine higher order correlations occur. The asymptotic normality of these estimates is used to derive their asymptotic variance and in order to investigate whether higher order coincidences can be considered genuine or whether they can be explained by chance coincidences. The empirical test power of this procedure for n=2 and n=3 processes and for finite analysis windows is derived with simulations and compared to the asymptotic values. Finally, the model is extended in order to allow for the analysis of correlations that are caused by jittered coincidences.
MDMA oder Ecstasy, wie diese Droge, die 1913 erstmalig zufällig synthetisiert wurde, auch heißt, ist inzwischen fester Bestandteil der Jugendkultur in Amerika und Europa. Eine Literaturrecherche zu diesem Thema kann sich natürlich nicht nur auf Wirkungsweise, Struktur, Synthese und neurotoxische Gefahren beschränken, auch wenn das der Schwerpunkt der Recherche und auch der Ausführungen ist. Dennoch werden in dieser Arbeit auch die Probleme mit dem Umgang dieser Droge, der historische Werdegang und die wichtigen Hinweise zum Umgang mit MDMA beleuchtet, um so einen insgesamt ansatzweise vollständigen Überblick über ein sehr komplexes und umfassendes Thema zu geben. Der rechtliche Aspekt von MDMA wird nur sehr knapp behandelt. Nicht näher wird auf soziologische und gesellschaftliche Überlegungen im Zusammenhang mit der Benutzung von Ecstasy eingegangen, da dieses den Rahmen der Ausführungen sprengen würde und thematisch auch sehr fern ist. Stellvertretend sei hier auf eine Arbeit von Jens Rottmann (Drogenkonsum und Sucht bei Jugendlichen – Ursachen – Verbreitung – Handlungsalternativen ) [1] verwiesen, die diese Aspekte sehr eingehend behandelt. Die Ausführungen konzentrieren sich selbstredend auf die chemischen Grundlagen und biochemischen Abläufe im Zusammenhang mit MDMA. Im dritten Kapitel werden ausführlich biochemische Grundsätze zur Informationsweitergabe in unserem Körper erörtert, da die Ausführungen der Arbeit auf diesen Kenntnissen beruhen.
This paper argues that short (clause-internal) scrambling to a pre-subject position has A properties in Japanese but A'-properties in German, while long scrambling (scrambling across sentence boundaries) from finite clauses, which is possible in Japanese but not in German, has A'-properties throughout. It is shown that these differences between German and Japanese can be traced back to parametric variation of phrase structure and the parameterized properties of functional heads. Due to the properties of Agreement, sentences in Japanese may contain multiple (Agro- and Agrs-) specifiers whereas German does not allow for this. In Japanese, a scrambled element may be located in a Spec AgrP, i.e. an A- or L-related position, whereas scrambled NPs in German can only appear in an AgrP-adjoined (broadly-L-related) position, which only has A'-properties. Given our assumption that successive cyclic adjunction is generally impossible, elements in German may not be long scrambled because a scrambled element that is moved to an adjunction site inside an embedded clause may not move further. In Japanese, long distance scrambling out of finite CPs is possible since scrambling may proceed in a successive cyclic manner via embedded Spec- (AgrP) positions. Our analysis of the differences between German and Japanese scrambling provides us with an account of further contrasts between the two languages such as the existence of surprising asymmetries between German and Japanese remnant-movement phenomena, and the fact that unlike German, Japanese freely allows wh-scrambling. Investigation of the properties of Japanese wh-movement also leads us to the formulation of the "Wh-cluster Hypothesis", which implies that Japanese is an LF multiple wh-fronting language.
In this article, I discuss some important properties of wh-questions and wh-scrambling in Japanese. The questions I will address are (i) which instances of (wh-) scrambling involve reconstruction and (ii) how the undoing effects of scrambling can be derived. First I will discuss the claim that (wh-) scrambling is semantically vacuous and is therefore undone at LF (Saito 1989, 1992). Then I consider the data that led Takahashi (1993) to the conclusion that at least some instances of wh-scrambling have to be analyzed as instances of "full wh-movement" i.e., overt movement of the wh-phrase in its scopal position. It will be argued that these examples are not instances of full wh-movement in Japanese, but that they also represent semantically vacuous scrambling. Those instances of scrambling that apprently cannot be undone are best explained with recourse to parsing effects. I conclude that wh-scrambling in Japanese is always triggered by a ([-wh]-) scrambling feature. In addition, long distance scrambling (scrambling out of finite CPs) is analyzed as adjunction movement, whereas short distance scrambling is movement to a specifier position of IP. Turning to the mechanisms of undoing, I will argue that only long distance scrambling is undone. This is shown to follow from Chomsky's (1995) bare phrase structure analysis, according to which multi-segmental categories derived by adjunction movement are not licensed at LF. The article is organized as follows. In section 2, the wh-scrambling phenomenon is described. In section 3, I discuss the reconstruction properties of scrambling. In addition, this section provides some basic assumptions about my analysis of Japanese scrambling in general. In section 4, I turn to the analysis of wh-scrambling as an instance of full wh-movement in Japanese. Section 5 provides discussion of multiple wh-questions in Japanese, and section 6 gives the conclusion.
Die Doppelobjekt-Konstruktion bildet einen Untersuchungsgegenstand, der in der Vergangenheit die Theoriebildung in der Syntaxforschung wesentlich beeinflusst hat. Untersuchungen zu Doppelobjekt-Konstruktionen sind u.a. folgenreich gewesen für die Kasustheorie sowie für Analysen der Verbbewegung, Satz-, VP- und Argument-Struktur. In diesem Aufsatz stelle ich eine Analyse einiger wichtiger Aspekte der Doppelobjekt-Konstruktion im Deutschen vor. Untersucht wird, in welcher Position die Objekte des Verbs basisgeneriert werden und in welchen abgeleiteten Positionen sie erscheinen. Die Beantwortung dieser Fragen liefert eine Erklärung für das asymmetrische Verhalten der beteiligten Objekte in Bezug auf ihr Bindungs- und Extraktionsverhalten.
Integration in den Grenzregionen der Europäischen Union - die Europäische Union und ihre Bürger
(2002)
Die Arbeit setzt sich mit der Bedeutung der regionalen Ebene im Europäischen Integrationsprozess auseinander und untersucht die Rolle der Regionen in der Europäischen Union und ihren Mitgliedstaaten. Am Beispiel der Grenzregionen innerhalb der Europäischen Union werden die Fortschritte und die Auswirkungen der Europäischen Integration auf das Leben der europäischen Bürger dargestellt.
Die Induzierte Polarisation (IP) ist ein geoelektrisches Verfahren und wurde ursprünglich zur Exploration von Erzvorkommen entwickelt. Neben metallischen Leitern, tragen auch Tonminerale, der Porenraum und die chemische Zusammensetzung der Porenlösung zur Polarisierbarkeit eines Unter-grundes bei. Die spektrale Induzierte Polarisation (SIP) untersucht die Polarisierbarkeit in einem Frequenzbereich von 1 mHz bis 1 kHz und nutzt diese aufgezeichneten Spektren zur Unterscheidung von Materialien. Früher mit einem enormen messtechnischen Aufwand verbunden, führte der gerätetechnische Fort-schritt in den letzten beiden Jahrzehnten dazu, dass die SIP vermehrt in der Umweltgeophysik zum Einsatz kommt. Zu den Fragestellungen gehören die Detektion von Altlasten und der Grundwasser-schutz. In der Archäologie ist die Induzierte Polarisation bislang ein kaum verwendetes Verfahren. Im Rahmen des Graduiertenkollegs „Archäologische Analytik“ der J. W. Goethe- Universität wurde die Entwicklung einer Multielektroden-Apparatur SIP-256 begonnen. Ziel der vorliegenden Arbeit war die Fortführung dieser Entwicklung. Da sich die wissenschaftliche Fragestellung während dieser Promotion auf die Erkundung archäologischer Objekte beschränkt, galt es zunächst automatisierte Messabläufe zu realisieren, die es erlauben, die komplexe elektrische Leitfähigkeit kleinräumiger 2D- bzw. 3D-Strukturen zu erfassen. Die Verwendung der SIP-256 führte zu einer erheblichen Ver-kürzung der Messzeit und war entscheidend für die Realisierung dieser Arbeit. Den zweiten Schwerpunkt der Arbeit bildet die Suche nach Anwendungsgebieten für die SIP innerhalb der archäologischen Prospektion. Basierend auf den Ursachen von Polarisationseffekten werden im Rahmen dieser Arbeit drei Anwendungsgebiete vorgestellt. Das erste Anwendungsgebiet nutzt die Vorteile der SIP bei der Prospektion von Erzen. Auf einem mittelalterlicher Verhüttungsplatz bei Seesen am Harz konnten im Vergleich zu einer konventionellen Widerstandsmessung mehr Schlackegruben lokalisiert werden. Während einer deutsch-bulgarischen Grabungskampagne in Pliska (Bulgarien) 1999 gelang es, durch eine flächenhafte Anwendung der IP einen Siedlungshorizont über Lehmablagerungen nachzuweisen. Die Überreste eines Gebäudes erzeugten einen messbaren Polarisationseffekt. Die frühmittelalterlichen Siedlungsreste befinden sich mit 2 bis 3 m in relativ großer Tiefe und konnten bei einer anschließenden Ausgrabung freigelegt werden. Eine Kernfrage war, ob Holzobjekte mit Hilfe der SIP zu detektieren sind. Mit Hilfe von Labormessungen an der TU Clausthal konnte geklärt werden, dass Holz ein polarisierbares Material ist. Zu den untersuchten Proben gehören Hölzer aus einem bronzezeitlichen Bohlenweg, die von Ausgrabungen im Federseemoor (Kreis Biberach) stammen. Durch die Untersuchungen im Labor motiviert, folgte eine Feldmessung über dem Bohlenweg. Es gelang, erstmals ein Holzobjekt mit spektraler Induzierter Polarisation zu detektieren. Holz spielt durch die dendrochronologische Datierung von Fundstellen eine wichtige Rolle, konnte aber bislang noch mit keiner geophysikalischen Methode zufriedenstellend prospektiert werden. Abschließend kann gesagt werden, dass sich die spektrale Induzierte Polarisation als wertvolle Methode in der archäologischen Prospektion etablierte. Strukturen, welche mit einer konventionellen Widerstandsmessung nicht zu erkennen waren, konnten durch die SIP eindeutig identifiziert werden. Natürlich müssen die vorliegenden Ergebnisse noch durch weitere Messungen bestätigt werden, jedoch zeichnet sich ab, dass sich mit der fortschreitenden gerätetechnischen Entwicklung, welche zu schnelleren Messabläufen führt, wichtige Zusatzinformationen durch die spektrale Induzierte Polarisation gewinnen lassen.
"Scharfes Messer" oder "stumpfer Dolch"? : Lakatos als Instrument in den internationalen Beziehungen
(2002)
Das Anliegen dieser Diplomarbeit sollte nicht nur darin bestehen, die fehlerhafte Anwendung Lakatos‘ in den IB aufzuzeigen. Nach meiner Auffassung müssen wissenschaftstheoretische Ansätze keineswegs ein Buch mit sieben Siegeln für die IB darstellen. Die Tatsache, dass Lakatos als Instrument für die Sozialwissenschaften ungeeignet ist (vor allem zur Diskreditierung konkurrierender Theorien) sollte keineswegs dahingehend abschreckend wirken, sich innerhalb der IB weiterhin mit wissenschaftstheoretischen Grundlagen zu befassen. Die IB als wissenschaftliche Disziplin könnten meiner Ansicht nach zwei zentrale Thesen Lakatos‘ verinnerlichen. „Moment-Rationalität“ zur Bewertung von Theorien kann es nicht geben. Dies sollte gerade bei jungen Forschungsprogrammen beachtet werden, die sich noch mit einem „Ozean von Anomalien“ konfrontiert sehen. Zudem sollte der vorschnelle Drang zur Falsifikation aufgegeben werden. Die Feststellung Lakatos, warum Falsifikation um jeden Preis unser Ziel sein sollte, trifft hier den Nagel auf den Kopf. Dieser Aspekt führt zu einer meiner zentralen Thesen. Ein Grundübel der IB liegt darin, dass allzu häufig, der Blick auf wesentliche empirische Probleme vergessen wird. Aufgrund dieser Vorgehensweise begeht der kritische Politikwissenschaftler jedoch einen Kategorien-Irrtum. Nicht die Lösung relevanter Probleme, wie dies Laudan fordert, sondern der falsche Stolz, die eigene Theorie behalte recht oder sei wahr, steht häufig im Vordergrund. Taucht nun ein zu erklärendes soziales Phänomen (beispielsweise der Demokratische Frieden oder das Ende des Ost-West-Konflikts) auf, wird weniger versucht, dieses sich stellende Problem zu lösen, als die selbst vertretene Theorie zu retten bzw. zu bestätigen. Dieses Vorgehen führt zu inter-paradigmatischen Grabenkämpfen, die ohne jeden Erkenntnisgewinn sind. Deshalb kann eine entsprechende Selbstreflexion der Disziplin IB, wie sie mit der Debatte zwischen Rationalisten versus Reflexivisten begonnen hat, nichts schaden. Die Gefahr besteht in solchen an die Wurzel greifenden Debatten darin, dass die Disziplin vollkommen zersplittern kann. Dieses Risiko muss die IB dennoch eingehen, da in der jüngsten Vergangenheit häufig der Blick für das Wesentliche verlorengegangen ist. Damit ist vor allem der Blick für die Probleme gemeint. Der wissenschaftstheoretische Ansatz Laudans, der mit einer gesunden Dosis Pragmatismus versehen ist, könnte hierfür ein geeignetes Hilfsmittel sein. Laudans Verwerfen der Wahrheit als kognitives Ziel verbunden mit seinem Festhalten am Rationalitätsbegriff erscheint mir als Strategie für die IB von Vorteil. Laudans Theorie verlangt nicht nach methodischen Standards im Lakatosschen Sinne, die für die Sozialwissenschaften unerfüllbar sind. Die Vorstellung Kuhns, wissenschaftliche Forschung verlaufe infolge von Paradigmenwechseln, die voneinander inkommensurabel sind, bietet für Politikwissenschaftler eher ein Alibi, nicht mehr miteinander reden zu müssen. Der erkenntnistheoretische Anarchismus Feyerabends ist in vielen Aspekten vertretbar. Gerade Feyerabends Ablehnung des positivistischen Erklärungsideals, es gebe eine universelle ahistorische wissenschaftliche Methode, ist zu teilen. Seine Konsequenz, jegliche Form methodischer Regeln abzulehnen, erscheint mir zu radikal. Eine ebenso radikale Konsequenz wie Feyerabend zieht Rorty aus seiner Schlussfolgerung, dass Theorien nicht rational überprüft werden können. Rorty verfällt meiner Ansicht nach in einen unbefriedigenden Relativismus, wenn er die Suche nach Erkenntnis nur noch auf den Bereich der Konversation beschränkt. Die Funktionsweise einer großen Konversation, in der die Philosophie eine Stimme unter vielen Experten der jeweiligen Fakultäten besitzt, leuchtet mir wenig ein....
Ziel der Arbeit war es, das biotechnologische Potenzial des zellulären Schleimpilzes D. discoideum in Bezug auf die Expression von G-Protein-gekoppelten Rezeptoren im allgemeinen und von Muskarin-Rezeptoren im besonderen zu untersuchen. Langfristiges Ziel war dabei, mit Hilfe von Dictyostelium discoideum ein leicht zugängliches und kostengünstiges Screeningsystem zur Testung potenzieller muskarinerger Liganden zu entwickeln. Im Rahmen der Arbeit wurden alle humanen Muskarin-Rezeptor-Subtypen M1 bis M5 untersucht. Ausgehend von entsprechenden Expressionsplasmiden für Säugerzellen wurde zunächst mittels PCR die DNA der jeweiligen Rezeptor- Subtypen amplifiziert (Plasmide des Subtyps M2 wurden aus den Arbeiten von Herrn Dr. Guido Voith aus unserer Arbeitsgruppe übernommen). Die DNA wurde dabei zusätzlich mit Erkennungssequenzen für Restriktionsenzyme versehen, die eine nachfolgende Klonierung in Expressionsplasmide für Dictyostelium discoideum ermöglichten. Zur Klonierung wurden in erster Linie Expressionsplasmide verwendet, die in der Arbeitsgruppe um D. Manstein entwickelt wurden. Diese Plasmide ermöglichen die Expression der klonierten Gene unter der Kontrolle verschiedener Promotoren. Dies sind zum einen der starke, konstitutive Aktin-15 Promotor und zum anderen der schwache und in gewissen Grenzen regulierbare Discoidin-1-Mü Promotor. Außerdem wurde in Expressionsplasmiden der starke und induzierbare Ras-Promotor eingesetzt. Mit den klonierten Plasmiden wurden dann transgene Dictyostelium-discoideum-Stämme erzeugt. Die Stämme wurden zunächst mittels Northern-Blot auf das Vorhandensein und die Transkription der entsprechenden DNA der Muskarin- Rezeptor-Subtypen untersucht. Für alle Muskarin-Rezeptor-Subtypen konnten die jeweiligen Transkripte nachgewiesen werden. Als Nachweis für korrekt in die Zellmembran eingebaute Rezeptormoleküle dienten Bindungsstudien mit dem Radioliganden [3H]-N-Methylscopolamin. Für den humanen Subtyp M5 konnte kein funktionelles Rezeptorprotein nachgewiesen werden, unabhängig von der Art des Expressionsplasmides oder des verwendeten D.-discoideum- Stammes. Die funktionelle Expression der Rezeptoren M1, M3 und M4 konnte bei den beiden axenischen Stämmen AX2 und AX3 nachgewiesen werden. Bei Plasmiden mit Aktin-15-Promotor, welche zusätzlich zum Rezeptorgen eine Dictyostelium discoideum eigene Signalsequenz zwischen Promotor-DNA und Rezeptor-DNA enthielten, wurden etwa 300 Rezeptoren pro Zelle für M1 und M4 gefunden. In Abhängigkeit vom verwendeten Plasmid konnten für M3 etwa 200 bis 7000 Rezeptoren pro Zelle nachgewiesen werden. Parallel zu den Radioliganden-Bindungsstudien wurde mit den Rezeptor-Subtypen M1, M2 und M4 am Aufbau von Assays gearbeitet, mit denen eine mögliche Kopplung zwischen stimuliertem Rezeptor und endogenen G-Proteinen nachgewiesen werden könnte. Zum einen wurde untersucht, ob die Stimulation der Muskarin-Rezeptoren zu einer Polymerisation von Aktin-Filamenten führt, wie dies durch den endogenen Liganden cAMP geschieht. Zum anderen wurde durch mehrfach transformierte D.-discoideum-Stämme, die neben dem Rezeptorgen noch das Beta- Galaktosidasegen als Reportergen, die Alpha-Untereinheit eines humanen G-Proteins und einen endogenen Transkriptionsfaktor exprimierten untersucht, ob durch Stimulation der Muskarin-Rezeptoren eine Expression des Rezeptorgens induziert werden kann. Diese wäre dann in einem automatisierbaren Testsystem über Messung der Beta- Galaktosidaseaktivität leicht nachweisbar. Als Variante dieses Testsystem wurde schließlich der von Joachim Tillner (Tillner, 1997) bereits zur Untersuchung teratogener Stoffeigenschaften verwendete Versuchsaufbau herangezogen. In keinem der verwendeten Assays konnte jedoch eine Kopplung von fremd exprimiertem Rezeptor an endogene GProtein- vermittelte Signaltransduktionswege nachgewiesen werden. Als mögliche Gründe für diese Ergebnisse wurden folgende Punkte diskutiert: Zum einen sind die in unserem Expressionssystem erreichbaren Rezeptorzahlen von 300 bis 7000 heterolog exprimierten Rezeptoren pro Zelle vermutlich zu gering im Vergleich zu den um zwei Zehnerpotenzen höher liegenden endogenen Rezeptoren, zum anderen sind die Säugerzellen evolutionär wahrscheinlich zu weit von D. discoideum entfernt, als dass eine effektive Wechselwirkung des stimulierten Rezeptors mit der Zelle stattfinden kann. Dictyostelium discoideum hat sich daher als kaum geeignetes Testsystem zur Untersuchung G-Protein-gekoppelter Rezeptoren aus Säugern herausgestellt.
Most evaluation studies of active labour market policies (ALMP) focus on the microeconometric evaluation approach using individual data. However, as the microeconometric approach usually ignores impacts on the non-participants, it should be seen as a first step to a complete evaluation which has to be followed by an analysis on the macroeconomic level. As a starting point for our analysis we discuss the effects of ALMP in a theoretical labour market framework augmented by ALMP. We estimate the impacts of ALMP in Germany for the time period 1999-2001 with regional data of 175 labour office districts. Due to the high persistence of German labour market data the application of a dynamic model is crucial. Furthermore our analysis accounts especially for the inherent simultaneity problem of ALMP. For West Germany we find positive effects of vocational training and job creation schemes on the labour market situation, whereas the results for East Germany do not allow profound statements. JEL Classification: C33, E24, H43, J64, J68.
Diese Arbeit gibt einen Überblick der Konzeption und der Evaluation der Aktiven Arbeitsmarktpolitik (AAMP) in Deutschland. Die rechtliche Grundlage der AAMP stellte von 1969 bis 1997 das Arbeitsförderungsgesetz (AFG) dar. 1998 wurde dieses durch das Sozialgesetzbuch (SGB) III abgelöst. Während das AFG noch unter Bedingungen der Vollbeschäftigung eingeführt wurde und auch eine generelle Verbesserung der Funktionsweise des Arbeitsmarktes vorsah, erfolgte im Zeitablauf eine stärkere Ausrichtung der AAMP auf die Wiedereingliederung von Problemgruppen in den Arbeitsmarkt. Das SGB III stellt die Eingliederung von Arbeitslosen in reguläre Beschäftigung in den Mittelpunkt. Obwohl das SGB III in Ansätzen eine Erfolgskontrolle der AAMP vorsieht und trotz der hohen fiskalischen Kosten (43 Mrd. DM im Jahr 2001) fehlt bisher eine umfassende Evaluation der Wirkungen der AAMP unter Berücksichtigung der Kosten. Die Arbeit stellt die grundlegenden methodischen Probleme einer aussagekräftigen Evaluation dar. Die mikroökonomische Evaluation untersucht, ob die Teilnahme an einem arbeitsmarktpolitischen Programm zu einem Erfolg im Hinblick auf individuelle Zielgrößen wie Beschäftigung oder Verdienst führt.
Recent progress in the understanding of the high density phase of neutron stars advances the view that a substantial fraction of the matter consists of hyperons. The possible impacts of a highly attractive interaction between hyperons on the properties of compact stars are investigated. We find that a hadronic equation of state with hyperons allows for a first order phase transition to hyperonic matter. The corresponding hyperon stars can have rather small radii of R ~ 8 km. PACS: 26.60+c, 21.65+f, 97.60.Gb, 97.60.Jd
Es steht ausser Zweifel, das der Schutz der Privatsphäre von Internet-Nutzern gegenwärtig unzureichend ist. Die Chance sich im Netz relativ weiträumig und frei zu bewegen, steht die Möglichkeit gegenüber allerlei Informationen über Internet-Nutzer zu sammeln und auszuwerten. Dies ist natürlich auch im Intranet möglich. Im Rahmen dieser Diplomarbeit wurden die verschiedenen Möglichkeiten überprüft, die zur Veröffentlichung von Datenschutzmassnahmen angeboten werden. Zunächst ist der OECD Privacy Statement Generator, dessen Principles Grundlage bei der Formulierung von Lufthansa Principles waren, auf Lufthansatauglichkeit untersucht worden. Dabei hat sich ergeben, dass trotz der theoretischen Übereinstimmung der Principles der Lufthansa AG mit denen der OECD, der Gebrauch des Generators bei Lufthansa in dieser Form nicht möglich ist. Da anfänglich eine Anpassung des Generators an Lufthansabedürfnisse geplant war, sind im Rahmen dieser Diplomarbeit Änderungsvorschläge gemacht worden. Die Anpassung des Codes erfolgte nicht, da dieser nur für öffentliche Stellen und nicht für Privatunternehmen zugänglich ist. Mit P3P entwickelte das W3C eine Datenschutztechnik, die für Nutzer die Kontrolle über persönliche Daten automatisiert und damit den Schutz der Privatsphäre und die Akzeptanz der User verbessert. Nach der Einführung des P3P- und APPEL-Vokabulars, mit dem man einerseits Datenschutzmassnahmen und andererseits Datenschutzpräferenzen ausdrücken kann, sollte daher geprüft werden, ob dieses Vokabular ausreicht, um Lufthansa-spezifische Aussagen zu machen und in wieweit diese erweiterbar bzw. anpassbar sind. Die Untersuchung hat ergeben, dass das Vokabular bis zu einem gewissen Masse ausreicht und es ein Element gibt, das EXTENSION Element, mit dem eine Erweiterung des P3P Standardvokabulars möglich ist. Im Rahmen dieser Arbeit wurden solche auf Lufthansa abgestimmte Erweiterungen sowohl für eine P3P Policy als auch für eine entsprechende APPEL Präferenz formuliert. Die Lufthansa AG hat somit mit P3P die Möglichkeit, Ihre Datenschutzpraktiken für den Mitarbeiter transparenter zu gestalten, da sie auch über das Standardvokabular hinausgehende Aussagen formulieren kann. In der Diplomarbeit sind ausserdem die sich zur Zeit auf dem Markt befindlichen Tools, die bei der Erstellung einer maschinenlesbaren Datenschutzmassnahme, der sog. Privacy Policy benutzt werden können, untersucht worden. Der IBM P3P Policy Editor scheint für den Gebrauch bei Lufthansa denkbar, da die Handhabung des Generators einfach ist. Der Mitarbeiter, der die Policy für seine Abteilung erstellen soll, braucht sich nicht mit den Einzelheiten des P3P Vokabulars auseinander setzten. Mit diesem Editor kann zunächst ein Basisgerüst einer Policy erstellt werden. Die mit dem P3P Element EXTENSION formulierten Erweiterungen müssen jedoch selbsterstellt werden und können nachträglich in das Basisgerüst der Policy miteingebunden werden. Zusätzlich zu der maschinenlesbaren Form einer Policy erstellt der IBM Editor auch eine menschenlesbare HTML-Version der Policy. Dies ist sehr von Vorteil, da in einem Arbeitsgang zwei Policy-Versionen erstellt werden. Im Vergleich zu dem Formulierungsentwurf des OECD Generators ist die menschenlesbare Version des IBM Editors ausserdem wesentlich kürzer und dadurch auch übersichtlicher. Im Ganzen ist es daher sinnvoller, den IBM Editor zu benutzen, als den OECD Generator neu zu programmieren und dann mit Hilfe eines anderen Tools die P3P Policy zu erstellen. Zur Erstellung einer APPEL Präferenz ist zur Zeit nur ein Hilfsmittel auf dem Markt erhältlich. Der Grund hierfür ist sicherlich, dass sich APPEL noch zu keinem Standard entwickelt hat, sondern sich noch in einem Entwurfsstadium befindet. Der APPEL Editor von JRC ist ähnlich wie der P3P Policy Editor von IBM aufgebaut. Auch hier müssen Erweiterungen selbst formuliert und in dem vom Editor erstellten Basisgerüst einer Präferenz eingebunden werden. Nachdem die grundsätzliche Erweiterbarkeit von P3P in dieser Diplomarbeit festgestellt wurde, sind die sog. User Agents behandelt worden. Von Bedeutung war neben der Funktionsweise der einzelnen User Agents ihre Handhabung des EXTENSION Elementes. Da zu erwarten ist, dass nur wenige Nutzer die Voreinstellungen ihrer Software selbst verändern und sich mit der APPEL Spezifikation auseinander setzten, wird der Standardkonfiguration eines P3P User Agents eine große Bedeutung beigemessen. Bei allen vorgestellten User Agents gab es verschiedene Sicherheitsniveaux bzgl. Datenschutz aus denen der Nutzer auswählen konnte. Entsprechend des Niveaux wurde die Präferenz des Nutzers automatisch konfiguriert. Bei allen war es ausserdem möglich, selbsterstellte APPEL Formulierungen zu importieren. Bei dem Proxy von JRC ist es möglich, Settings mit einzubinden, die das EXTENSION Element beinhalten. AT&T erlaubt dies nicht und von Microsoft fehlt hierzu jegliche Angabe. Bzgl. der Lufthansa AG erscheint es sinnvoll, den Mitarbeitern einen eigenen User Agent anzubieten, der alle zusätzlich formulierten Aspekte aufgreift und mit dem der Mitarbeiter seine Präferenzen bzgl. des Intranets leicht ausdrücken kann. Der Aufwand, den Mitarbeitern das erweiterte Vokabular für die Formulierung einer Präferenz zur Verfügung zu stellen, setzt voraus, dass jeder Mitarbeiter sich mit der Syntax und Semantik von P3P und APPEL auskennt. Dies ist im Vergleich zur Programmierung eines eigenen User Agents, der den Mitarbeitern zur Verfügung gestellt wird, aufwendiger und wahrscheinlich auch nicht realisierbar. Grundsätzlich kann durch diese Massnahmen das Vertrauen der Mitarbeiter ins Intranet und damit die Nutzung dieses Mediums gesteigert werden. Die vermehrte Nutzung des Intranets auch für private Zwecke, wie zum Beispiel der Buchung von Reisen oder die Abfrage nach Flügen etc., würde für beide Seiten auch wirtschaftlichen Nutzen bringen. Für die Mitarbeiter selbst käme es z.B. zu einer Zeitersparnis, da sie jetzt zur Buchung ihrer Reisen nicht mehr in die Reisestelle müssen. Dies hätte natürlich auch wirtschaftliche Auswirkungen, da der Aufwand, um zur Reisestelle zu kommen, wegfällt. Aber auch die Lufthansa AG hätte durch die transparentere Gestaltung ihrer Datenschutzpraktiken wirtschaftlichen Nutzen. Die Mitarbeiter z.B. in der Reisestelle würden durch das neue Vertrauen ihrer Kollegen ins Intranet und damit einhergehend die selbstständige Online-Buchungsmöglichkeit entlastet werden. Es könnten mehr Kapazitäten für andere Aufgaben frei werden. Das Ausmass der Vorteile für Lufthansa und Ihrer Mitarbeiter, die sich aus der Veröffentlichung von Datenschutzmaßnahmen ergeben und damit ist auch das vermehrte Vertrauen der Mitarbeiter ins Intranet gemeint, ist zur Zeit noch nicht in vollem Umfang erfassbar, da sich viele Intranetprojekte der Lufthansa AG noch im Entwicklungsstadium befinden. Für die Zukunft ist jedoch auch festzustellen, dass datenschutzfreundliche Technologien allein nicht die Lösung zur Sicherstellung des Datenschutzes im Inter- als auch im Intranet sein können. Vielmehr müssen die aufkommenden technischen Maßnahmen durch nationale und internationale Regelungen unterstützt und ergänzt werden. Erst durch Festlegung internationaler Konventionen, die den Datenschutz in Zusammenhang mit grenzüberschreitenden Computernetzwerken und Diensten regeln, kann ein effektiver und unabhängiger Kontrollmechanismus sowie die Möglichkeit zu Sanktionen gewährleistet werden. Die Veröffentlichung von Datenschutzmassnahmen gewährleistet leider nicht ihre Einhaltung.
The flying geese model, a theory of industrial development in latecomer economies, was developed in the 1930s by the Japanese economist Akamatsu Kaname (1896–1974). While rarely known in western countries, it is highly prominent in Japan and seen as the main economic theory underlying Japan’s economic assistance to developing countries. Akamatsu’s original interpretation of the flying geese model differs fundamentally from theories of western origin, such as the neoclassical model and Raymond Vernon’s product cycle theory. These differences include the roles of factors and linkages in economic development, the effects of demand and supply, as well as the dynamic and dialectical character of Akamatsu’s thinking. Later reformulations of the flying geese model, pioneered by Kojima Kiyoshi, attempt to combine aspects of Akamatsu’s theory with neoclassical thinking. This can be described as the “westernization” of the flying geese model. It is this reformulated interpretation that has become popular in Japan’s political discourse, a process that might be explained by the change in Japan’s perspective from that of a developing to that of an advanced economy. The position taken by Japan in its recent controversy with the World Bank, however, shows that many basic elements of Akamatsu’s thinking are still highly influential within both Japan’s academia and its government and are therefore relevant for understanding current debates on development theory.
The space-time dynamics and pion-HBT radii in central heavy ion-collisions at CERN-SPS and BNL-RHIC are investigated within a hydrodynamic simulation. The dependence of the dynamics and the HBT-parameters on the EoS is studied with different parametrizations of a chiral SU(3) sigma omega model. The selfconsistent collective expansion includes the e ects of e ective hadron masses, generated by the nonstrange and strange scalar condensates. Different chiral EoS show di erent types of phase transitions and even a crossover. The influence of the order of the phase transition and of the latent heat on the space-time dynamics and pion-HBT radii is studied. A small latent heat, i.e. a weak first-order chiral phase transition, or a smooth crossover lead to distinctly di erent HBT predictions than a strong first order phase transition. A quantitative description of the data, both at SPS energies as well as at RHIC energies, appears di cult to achieve within the ideal hydrodynamic approach using the SU(3) chiral EoS. A strong first-order quasi-adiabatic chiral phase transition seems to be disfavored by the pion-HBT data from CERN-SPS and BNL-RHIC.
We derive the quantum kinetic equation for a pure gluon plasma, applying the background field and closed-time-path method. The derivation is more general and transparent than earlier works. A term in the equation is found which, as in the classical case, corresponds to the color charge precession for partons moving in the gauge field. PACS numbers: 12.38.Mh, 25.75.-q, 24.85.+p, 11.15.Kc
We address the production of black holes at LHC in space times with compactified space-like large extra dimensions (LXD). Final state black hole production leads to suppression of high-PT jets, i.e. a sharp cut-o in (pp!jet+X). This signal is compared to the jet plus missing energy signature due to graviton production in the final state as proposed by the ATLAS collaboration. Time evolution and lifetimes of the newly created black holes are calculated based on the micro- canonical formalism. It is demonstrated that previous lifetime estimates of micro black holes have been dramatically underestimated. The creation of a large number of quasi-stable black holes is predicted with life times of hundred fm/c at LHC. Medium modifications of the black holes evaporation rate due to the quark gluon plasma in relativistic heavy ion collisions as well as provided by the cosmic fluid in the early universe are studied
We study the bound states of anti-nucleons emerging from the lower continuum in finite nuclei within the relativistic Hartree approach including the contributions of the Dirac sea to the source terms of the meson fields. The Dirac equation is reduced to two Schr¨odinger-equivalent equations for the nucleon and the anti-nucleon respectively. These two equations are solved simultaneously in an iteration procedure. Numerical results show that the bound levels of anti-nucleons vary drastically when the vacuum contributions are taken into account. PACS number(s): 21.10.-k; 21.60.-n; 03.65.Pm
Recent progress in the understanding of the high density phase of neutron stars advances the view that a substantial fraction of the matter consists of hyperons. The possible impacts of a highly attractive interaction between hyperons on the properties of compact stars are investigated.We find that a hadronic equation of state with hyperons allows for a first order phase transition to hyperonic matter. The corresponding hyperon stars can have rather small radii of R 8 km.
The production of black holes at Tevatron and LHC in spacetimes with compactified space-like large extra dimensions is studied. Either black holes can already be observed in ¯ pp collisions at s = 1.8 TeV or the fundamental gravity scale has to be above 1.4 TeV. At LHC the creation of a large number of quasi-stable black holes is predicted, with lifetimes beyond several hundred fm/c. A cut-off in the high-PT jet cross section is shown to be a unique signature of black hole production. This signal is compared to the jet plus missing energy signature due to graviton production in the final state as proposed by the ATLAS collaboration.
The in-medium properties of the vector mesons are known to be modified significantly in hot and dense hadronic matter due to vacuum polarisation e ects from the baryon sector in the Walecka model. The vector meson mass drops significantly in the medium due to the e ects of the Dirac sea. In the variational approach adopted in the present paper, these e ects are taken into account through a realignment of the ground state with baryon condensates. Such a realignment of the ground state becomes equivalent to summing of the baryonic tadpole diagrams in the relativistic Hartree approximation (RHA). The approximation scheme adopted here goes beyond RHA to include quantum e ects from the scalar meson and is nonperturbative and self consistent. It includes multiloop e ects, thus corresponding to a di erent approximation as compared to the one loop approximation of including scalar field quantum corrections. In the present work, we study the properties of the vector mesons in the hot and dense matter as modified due to such quantum correction e ects from the baryon as well as scalar meson sectors. These medium modifications of the properties of the vector mesons are reflected, through the shifting and broadening of the respective peaks, in the low mass dilepton spectra. There is broadening of the peaks due to corrections from scalar meson quantum e ects as compared to the relativistic Hartree approximation. It is seen to be rather prominent for the ! meson in the invariant mass plot. PACS number: 21.65.+f,12.40.Yx
The non-equilibrium quantum field dynamics is usually described in the closed-time-path formalism. The initial state correlations are introduced into the generating functional by non-local source terms. We propose a functional approach to the Dyson-Schwinger equation, which treats the non-local and local source terms in the same way. In this approach, the generating functional is formulated for the connected Green functions and one-particle-irreducible vertices. The great advantages of our approach over the widely used two-particle-irreducible method are that it is much simpler and that it is easy to implement the procedure in a computer program to automatically generate the Feynman diagrams for a given process. The method is then applied to a pure gluon plasma to derive the gauge-covariant transport equation from the Dyson-Schwinger equation in the background covariant gauge. We discuss the structure of the kinetic equation and show its relationship with the classical one. We derive the gauge-covariant collision part and present an approximation in the vicinity of equilibrium. The role of the non-local source kernel in the non-equilibrium system is discussed in the context of a free scalar field. PACS numbers: 12.38.Mh, 25.75.-q, 24.85.+p, 11.15.Kc
We compare different models for hadronic and quark phases of cold baryon rich matter in an attempt to find a deconfinement phase transition between them. For the hadronic phase we consider Walecka type mean field models which describe well the nuclear saturation properties. We also use the variational chain model which takes into account correlation effects. For the quark phase we consider the MIT bag model, the Nambu Jona-Lasinio and the massive quasiparticle models. By comparing pressure as a function of baryon chemical potential we find that crossings of hadronic and quark branches are possible only in some exceptional cases while for most realistic parameter sets these branches do not cross at all. Moreover, the chiral phase transition, often discussed within the framework of QCD motivated models, lies in the region where the quark phases are unstable with respect to the hadronic phase. We discuss possible physical consequences of these findings.
The high E(T) drop of J / psi to Drell-Yan ratio from the statistical c anti-c coalescence model
(2002)
The dependence of the J/psi yield on the transverse energy ET in heavy ion collisions is considered within the statistical c¯c coalescence model. The model fits the NA50 data for Pb+Pb collisions at the CERN SPS even in the high-ET region (ET >< 100 GeV). Here ET -fluctuations and ET -losses in the dimuon event sample naturally create the celebrated drop in the J/psi to Drell-Yan ratio.
The amount of proton stopping in central Pb+Pb collisions from 20 160 A·GeV as well as hyperon and antihyperon rapidity distributions are calcu- lated within the UrQMD model in comparison to experimental data at 40, 80 and 160 A·GeV taken recently from the NA49 collaboration. Further- more, the amount of baryon stopping at 160 A·GeV for Pb + Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central colli- sions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80 and 160 A·GeV are underestimated by up to factors of 3 - depending on the annihilation cross section employed - which might be addressed to missing multi-meson fusion channels in the UrQMD model. PACS 25.75.+r
We study central collision of Pb + Pb at 20, 40, 80 and 160 A·GeV within the UrQMD transport approach and compare rapidity distributions of ,K+,K and with the recent measurements from the NA49 Collaboration at 40, 80 and 160 A·GeV. It is found that the UrQMD model reasonably describes the data, however, systematically overpredicts the yield by < 20%, whereas the K+ yield is underestimated by < 15%. The K yields are in a good agreement with the experimental data, the yields are also in a reasonable correspondence with the data for all energies. We find that hadronic flavour exchange reactions largely distort the information about the initial strangeness production mechanism at all energies considered. PACS: 25.75.+r
We discuss the possibility of producing a new kind of nuclear system by putting a few antibaryons inside ordinary nuclei. The structure of such systems is calculated within the relativistic mean field model assuming that the nucleon and antinucleon potentials are related by the G parity transformation. The presence of antinucleons leads to decreasing vector potential and increasing scalar potential for the nucleons. As a result, a strongly bound system of high density is formed. Due to the significant reduction of the available phase space the annihilation probability might be strongly suppressed in such systems.
The recently published experimental dependence of the J/psi suppression pattern in Pb+Pb collisions at the CERN SPS on the energy of zero degree calorimeter EZDC are analyzed. It is found that the data obtained within the minimum bias analysis (using theoretical Drell-Yan ) are at variance with the previously published experimental dependence of the same quantity on the transversal energy of neutral hadrons ET . The discrepancy is related to the moderate centrality region: 100 << Np << 200 (Np is the number of nucleon participants). This could result from systematic experimental errors in the minimum bias sample. A possible source of the errors may be contamination of the minimum bias sample by o -target interactions. The data obtained within the standard analysis (using measured Drell-Yan multiplicity) are found to be much less sensitive to the contamination.
The measured particle ratios in central heavy-ion collisions at RHIC-BNL are investigated within a chemical and thermal equilibrium chiral SU(3) theta - omega approach. The commonly adopted noninteracting gas calculations yield temperatures close to or above the critical temperature for the chiral phase transition, but without taking into account any interactions. Contrary, the chiral SU(3) model predicts temperature and density dependent e ective hadron masses and e ective chemical potentials in the medium and a transition to a chirally restored phase at high temperatures or chemical potentials. Three di erent parametrizations of the model, which show di erent types of phase transition behaviour, are investigated. We show that if a chiral phase transition occured in those collisions, freezing of the relative hadron abundances in the symmetric phase is excluded by the data. Therefore, either very rapid chemical equilibration must occur in the broken phase, or the measured hadron ratios are the outcome of the dynamical symmetry breaking. Furthermore, the extracted chemical freeze-out parameters di er considerably from those obtained in simple noninteracting gas calculations. In particular, the three models yield up to 35 MeV lower temperatures than the free gas approximation. The in-medium masses turn out di er up to 150 MeV from their vacuum values.
We calculate p, ±,K± and (+ 0) rapidity distributions and compare to experimental data from SIS to SPS energies within the UrQMD and HSD transport approaches that are both based on string, quark, diquark (q, ¯q, qq, ¯q ¯q) and hadronic degrees of freedom. The two transport models do not include any explicit phase transition to a quark-gluon plasma (QGP). It is found that both approaches agree rather well with each other and with the experimental rapidity distributions for protons, s, ± and K±. In- spite of this apparent agreement both transport models fail to reproduce the maximum in the excitation function for the ratio K+/ + found experimen- tally between 11 and 40 A·GeV. A comparison to the various experimental data shows that this failure is dominantly due to an insu cient description of pion rapidity distributions rather than missing strangeness . The modest di erences in the transport model results on the other hand can be attributed to di erent implementations of string formation and frag- mentation, that are not su ciently controlled by experimental data for the elementary reactions in vacuum.
A canonical partition function for the two-component excluded volume model is derived, leading to two di erent van der Waals approximations. The one is known as the Lorentz-Berthelot mixture and the other has been proposed recently. Both models are analysed in the canonical and grand canonical ensemble. In comparison with the one-component van der Waals excluded volume model the suppression of particle densities is reduced in these two-component formulations, but in two essentially di erent ways. Presently used multi-component models have no such reduction. They are shown to be not correct when used for components with di erent hard-core radii. For high temperatures the excluded volume interaction is refined by accounting for the Lorentz contraction of the spherical excluded volumes, which leads to a distinct enhancement of lighter particles. The resulting e ects on pion yield ratios are studied for AGS and SPS data.
The amount of proton stopping in central Pb+Pb collisions from 20–160 A GeV as well as hyperon and antihyperon rapidity distributions are calculated within the UrQMD model in comparison to experimental data at 40, 80, and 160 A GeV taken recently from the NA49 collaboration. Furthermore, the amount of baryon stopping at 160A GeV for Pb+Pb collisions is studied as a function of centrality in comparison to the NA49 data. We find that the strange baryon yield is reasonably described for central collisions, however, the rapidity distributions are somewhat more narrow than the data. Moreover, the experimental antihyperon rapidity distributions at 40, 80, and 160 A GeV are underestimated by up to factors of 3—depending on the annihilation cross section employed—which might be addressed to missing multimeson fusion channels in the UrQMD model. Pacs-Nr.: 25.75.2q, 24.10.Jv, 24.10.Lx
Im Rahmen einer Zusammenschau werden im hier vorliegenden Bericht landwirtschaftliche und den ländlichen Raum betreffende Entwicklungen eingeschätzt und, in Verbindung hiermit, künftige Umweltentlastungen sowie mögliche neue Umweltgefährdungen dargestellt. Im Mittelpunkt der Betrachtungen steht die Nahrungsmittelproduktion in Deutschland, wobei die Integration der deutschen Landwirtschaft in die europäische Landwirtschaft und die Weltwirtschaft und die hiermit einhergehenden äußeren Einflüsse einbezogen werden. Der Zeithorizont der Betrachtungen ist der Zeitraum bis 2030. ...
The lightest supersymmetric particle, most likely the lightest neutralino, is one of the most prominent particle candidates for cold dark matter (CDM). We show that the primordial spectrum of density fluctuations in neutralino CDM has a sharp cut-off, induced by two different damping mechanisms. During the kinetic decoupling of neutralinos, non-equilibrium processes constitute viscosity effects, which damp or even absorb density perturbations in CDM. After the last scattering of neutralinos, free streaming induces neutralino flows from overdense to underdense regions of space. Both damping mechanisms together define a minimal mass scale for perturbations in neutralino CDM, before the inhomogeneities enter the non- linear epoch of structure formation. We find that the very first gravitationally bound neutralino clouds ought to have masses above 10-6M , which is six orders of magnitude above the mass of possible axion miniclusters.
We study properties of compact stars with the deconfinement phase transition in their interiors. The equation of state of cold baryon-rich matter is constructed by combining a relativistic mean-field model for the hadronic phase and the MIT Bag model for the deconfined phase. In a narrow parameter range two sequences of compact stars (twin stars), which differ by the size of the quark core, have been found. We demonstrate the possibility of a rapid transition between the twin stars with the energy release of about 10 ^52 ergs. This transition should be accompanied by the prompt neutrino burst and the delayed gamma-ray burst.
A novel mechanism of H0 and strangelet production in hadronic interactions within the Gribov-Regge approach is presented. In contrast to traditional distillation approaches, here the production of multiple (strange) quark bags does not require large baryon densities or a QGP. The production cross section increases with center of mass energy. Rapidity and transverse momentum distributions of the H 0 are predicted for pp collisions at E_lab = 160 AGeV (SPS) and \sqrt s = 200 AGeV (RHIC). The predicted total H 0 multiplicities are of order of the Omega-baryon yield and can be accessed by the NA49 and the STAR experiments.
The production of multiple strange baryons in pp interactions is studied. Here one can directly probe the microscopic decay of color flux tubes, allowing to differentiate between different string models and a statistical description of the hadronization. To analyse the different stages of a heavy ion collision the time evolution of the elastic and inelastic collision rates in central Pb+Pb interactions are studied. The microscopic simulation supports the idea of separated phases (non-equilibrium -> chemical freeze-out -> kinetic freeze-out) in the evolution of the system. The spectra and abundances of Lambda(1520), K 0(892) and other resonances are used to study the break-up dynamics of the source between chemical and thermal freeze-out.
Untersuchung biochemischer Parameter des Lipidstoffwechsels bei chirurgischen Intensivpatienten
(2002)
Das Ziel der vorliegenden Arbeit war, die biochemischen Zusammenhänge von häufig auftretenden Störungen des Fettstoffwechsels unter den Bedingungen der längerfristigen postoperativen Intensivtherapie zu untersuchen. In die Untersuchung eingeschlossen wurden Patienten mit einer Mindestaufenthaltsdauer auf der chirurgischen Intensivpflegestation von sieben Tagen, bei denen im Verlauf dieses Aufenthalts der prozentuale Anteil der alpha-Lipoproteine (elektrophoretisch) auf 20 % oder darunter bzw. der Cholesterinesterquotient auf 50 % oder darunter sank. Die Ergebnisse der Lipidelektrophorese korrelieren bei Seren von Gesunden gut mit Ergebnissen der Referenzmethode Ultrazentrifugation. Bei chirurgischen Intensivpatienten, die z. T. starke Veränderungen des Lipoproteinstoffwechsels aufweisen, ist die Lipidelektrophorese als Methode nur bedingt geeignet, denn es ergeben sich deutliche Abweichungen der Ergebnisse im Vergleich zu denen der Ultrazentrifugation. Bei den untersuchten Intensivpatienten, in deren Seren keine elektrophoretische Mobilität der alpha-Lipoproteine feststellbar war, konnten dennoch Lipoproteine mit hoher Dichte (HDL2 und HDL3) per Ultrazentrifugation nachgewiesen werden. Im Vergleich zu gesunden Kontrollpersonen waren in diesen Fraktionen allerdings die Konzentrationen von Apolipoprotein AI und auch die berechnete Gesamtmasse der Fraktionen signifikant vermindert. Mit der elektrophoretischen Trennmethode wurde der prozentuale beta-Lipoproteinanteil im Serum signifikant höher berechnet als der Anteil der Lipoproteine mit geringer Dichte (LDL) nach Trennung durch Ultrazentrifugation, der alpha-Lipoproteinanteil wurde signifikant niedriger berechnet als der HDL-Anteil. Nach Ultrazentrifugation der Patientenseren wurden stark veränderte Zusammensetzungen der einzelnen Lipoproteinfraktionen beobachtet. Der Anteil des freien Cholesterins war bei diesen Patienten in allen vier Lipoproteinfraktionen signifikant erhöht. Extrem niedrige Cholesterinesteranteile fanden sich in LDL- und HDL-Fraktionen. Da in diesen Fraktionen andererseits die Triglycerid-Anteile erhöht waren, wiesen die Lipoproteinpartikel im Vergleich zum Normbereich veränderte Kernzusammensetzungen auf. Bei den Intensivpatienten war der Quotient Kernbestandteile/Oberflächenbestandteile insbesondere in den beiden HDL-Fraktionen signifikant erniedrigt, woraus sich auf verkleinerte Lipoproteinpartikel schließen läßt. Erniedrigte Serumkonzentrationen von Cholesterinestern und abnormale Lipoproteinzusammensetzungen korrelierten mit signifikant verminderter, teils ganz fehlender in vitro Cholesterinveresterung. Zugleich lag Apolipoprotein AI, welches als Cofaktor des Enzyms Lecithin-Cholesteryl-Acyl-Transferase (LCAT) fungiert, in den HDL-Fraktionen nur in sehr niedrigen Konzentrationen vor. Bei den Patienten, in deren Serum keine LCAT-Aktivität nachweisbar war, konnten dennoch Cholesterinester in allen Fraktionen gemessen werden. Eine stark erniedrigte oder fehlende LCAT-Aktivität gilt als prognostisch ungünstig, kann aber reversibel sein. Signifikant erniedrigt war der prozentuale Anteil des Linolats an den Esterfettsäuren im Serum, während der prozentuale Anteil des Oleats signifikant erhöht war. Dadurch erhöhte sich auch der Quotient Oleat/Linolat (18:1 / 18:2) in signifikanter Weise. Der signifikant erhöhte Serumacylquotient (18:1 + 18:2) / 16:0 weist darauf hin, daß die Konzentrationen der freien ungesättigten C 18–Fettsäuren im Vergleich zur Palmitinsäure erhöht waren. Die vorgestellten Ergebnisse verdeutlichen die Komplexität des Fettstoffwechsels insbesondere im Hinblick auf die Entgleisungen bei intensivpflegepflichtigen chirurgischen Patienten.
Der Stern der Erlösung
(2002)
'Der Stern der Erlösung' von Franz Rosenzweig (1886-1929) ist eines der klassischen Werke der deutschen Philosophie des 20. Jahrhunderts. Das Werk ist nach klassischen Schema Gott - Welt - Mensch angelegt. Es ist nicht nur (aber auch) als jüdisch-religionsphilosophische Schrift anzusehen, sondern steht zwischen dem deutschen Neukantinaismus, der Lebens- und der Existenz(ial)philosophie. Die digitale Neuausgabe entspricht dem Text der Druckversionen, normalisiert aber zwecks besserer Recherche einige eigenwillige oder fehlerhafte Schreibweisen (Egypten, Kierkegard). Die Publikation enthält eine Einführung in das Werk von Bernhard Casper.
The STAR Collaboration reports the first observation of exclusive rho 0 photoproduction, AuAu-->AuAu rho 0, and rho 0 production accompanied by mutual nuclear Coulomb excitation, AuAu-->Au [star] Au [star] rho 0, in ultraperipheral heavy-ion collisions. The rho 0 have low transverse momenta, consistent with coherent coupling to both nuclei. The cross sections at sqrt[sNN]=130 GeV agree with theoretical predictions treating rho 0 production and Coulomb excitation as independent processes.
Inclusive transverse momentum distributions of charged hadrons within 0.2<pT<6.0 GeV/c have been measured over a broad range of centrality for Au+Au collisions at sqrt[sNN]=130 GeV. Hadron yields are suppressed at high pT in central collisions relative to peripheral collisions and to a nucleon-nucleon reference scaled for collision geometry. Peripheral collisions are not suppressed relative to the nucleon-nucleon reference. The suppression varies continuously at intermediate centralities. The results indicate significant nuclear medium effects on high-pT hadron production in heavy-ion collisions at high energy.