Refine
Year of publication
Document Type
- Article (31519)
- Part of Periodical (11577)
- Book (8336)
- Doctoral Thesis (5743)
- Part of a Book (3973)
- Working Paper (3393)
- Review (2940)
- Contribution to a Periodical (2368)
- Preprint (2359)
- Conference Proceeding (1747)
Language
- German (42904)
- English (30349)
- French (1060)
- Portuguese (840)
- Spanish (309)
- Croatian (302)
- Multiple languages (263)
- Italian (198)
- mis (174)
- Turkish (168)
Has Fulltext
- yes (76891) (remove)
Keywords
- Deutsch (1076)
- Literatur (868)
- taxonomy (771)
- Deutschland (553)
- Rezension (511)
- new species (457)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (329)
- Geschichte (300)
Institute
- Medizin (7823)
- Präsidium (5225)
- Physik (4809)
- Extern (2738)
- Wirtschaftswissenschaften (2705)
- Gesellschaftswissenschaften (2375)
- Biowissenschaften (2209)
- Biochemie und Chemie (1981)
- Frankfurt Institute for Advanced Studies (FIAS) (1887)
- Informatik (1729)
Die Entwicklung neuer Formen der Tumortherapie bleibt notwendig, solange die Heilung verschiedener solider metastasierender Tumore nicht möglich ist. Solch ein neuer Ansatz besteht in der Infektion des Tumors mit replikationskompetenten (retroviralen) Vektoren oder Viren. Um die Spezifität dieser Viren für die Tumorzellen zu erhöhen, wird in dieser Arbeit ein Konzept vorgestellt, dass die Tumor-spezifische Expression von Proteasen, im Besonderen von Matrix-Metalloproteasen (MMPs), zur Aktivierung des Maus Leukämievirus (MLV) ausnutzt (Protease-Targeting). Dazu wurde durch eine Blockierungsdomäne (CD40L) Nterminal vom infektionsvermittelnden MLV-Hüllprotein Env die Bindung an die Zelleintrittsrezeptoren verhindert. Eine Spaltstelle zwischen CD40L und Env ermöglicht die Entfernung der Blockierungsdomäne und damit die Aktivierung des Virus. Um eine Spaltstelle zu finden, die optimal auf das Proteasespektrum eines Tumors passt, wurde das zwischen CD40L und Env befindliche Linkerpeptid kombinatorisch diversifiziert und so eine Bibliothek von Retroviren erzeugt. Die Selektion dieser Bibliothek auf zwei unterschiedlichen Tumorlinien (HT1080, Fibrosarkom und U-87 MG, malignes Gliom) führte zur Anreicherung MMP-aktivierbarer Viren. Drei der mehr als 10 identifizierten Linkerpeptide (AKGLYK, PSGLYQ und PAGLHV) wurden im viralen Kontext näher charakterisiert. Für das Spaltmotiv PSGLYQ konnte MMP-2 als aktivierende Protease nachgewiesen werden. Für die Motive AKGLYK und PAGLHV erwies sich eine kummulative Spaltung durch eine Reihe von MMPs als wahrscheinlich. Um die Ausbreitung der Viren in Abhängigkeit der MMP-Expression zu zeigen, wurden verschiedene Zelllinien hinsichtlich ihrer Expression von MMP-2 und MMP-9 charakterisiert und in MMP-positive und MMP-negative Zelllinien eingeteilt. Durch Infektion dieser Zelllinien und anschließende Verfolgung der Virus-Ausbreitung konnte die konditionale Replikation der aktivierbaren Viren ausschließlich auf MMP-positiven Zellen nachgewiesen werden. Daher erreichten die Viren mit selektionierten Spaltmotiven im Gegensatz zum Parental- Virus, welches ein in der Literatur beschriebenes MMP-2-Spaltmotiv aus Kollagen (PLGLWA) präsentierte, die vollständige Infektion der Kulturen. Auch die Titer lagen etwa um das 1000fache höher. Die Replikationsgeschwindigkeit der aktivierbaren Viren mit AKGLYK und PSGLYQ Motiv erreichte annähernd die des unveränderten MLV, das Virus mit PAGLHV Motiv zeigte sogar eine identische Replikationskurve. In einem Tumor-Maus-Modell konnte die Ausbreitung der proteolytisch aktivierbaren Viren auch in der Umgebung eines soliden Tumors gezeigt werden. Sowohl nach Etablierung des Tumors aus zum Teil vorinfizierten Zellen, als auch nach Injektion von Viren in zuvor etablierte Tumore erfolgte sie für die selektionierten Viren genetisch stabil. Um die Verteilung der Viren im Organismus zu bestimmen, wurde ein Modell entwickelt, in dem ein vollständig infizierter Tumor als Virusquelle diente, und nach bestimmten Zeiträumen verschiedene Organe der Maus und ein zweiter aus uninfizierten Zellen etablierter Tumor per PCR auf Infektionen untersucht wurde. Hier zeigte sich, dass WT-MLV bis zu 20.000fach mehr Zellen in den Organen infizierte als die aktivierbaren Viren. Dagegen wurden Zellen in einem sekundären uninfiziert etablierten Tumor vom WT-MLV nur etwa 5fach besser infiziert als durch die aktivierbaren Viren. Das heißt, die selektionierten Viren erreichten ein hohes Maß an Tumortargeting. In der vorliegenden Arbeit wurden durch molekulare Evolution zum ersten Mal replizierende Retroviren hergestellt, die einen eingeschränkten und für Protease-positive Zellen spezifischen Tropismus aufwiesen. Die selektionierten Substrate glichen anderen, mit Hilfe von Peptid-Bibliotheken für MMPs identifizierten Motiven, jedoch konnten durch die Berücksichtigung des gesamten Proteasespektrums einer Zelllinie weitere Motive selektioniert werden, die durch bisherige Systeme nicht ermittelt werden konnten. Damit ergibt sich für die selektionierten MMP-aktivierbaren Viren durch die Kombination aus Targeting beim Zelleintritt und Replikation in der Targetzellpopulation, die für andere beschriebene Targetingsysteme nicht gegeben ist, eine echte Option für neue Wege in der Tumortherapie.
The dynamical quantum Zeno effect is studied in the context of von Neumann algebras. It is shown that the Zeno dynamics coincides with the modular dynamics of a localized subalgebra. This relates the modular operator of that subalgebra to the modular operator of the original algebra by a variant of the Kato-Lie-Trotter product formula.
We present a method for the construction of a Krein space completion for spaces of test functions, equipped with an indefinite inner product induced by a kernel which is more singular than a distribution of finite order. This generalizes a regularization method for infrared singularities in quantum field theory, introduced by G. Morchio and F. Strocchi, to the case of singularites of infinite order. We give conditions for the possibility of this procedure in terms of local differential operators and the Gelfand-Shilov test function spaces, as well as an abstract sufficient condition. As a model case we construct a maximally positive definite state space for the Heisenberg algebra in the presence of an infinite infrared singularity. See the corresponding paper: Schmidt, Andreas U.: "Mathematical Problems of Gauge Quantum Field Theory: A Survey of the Schwinger Model" and the presentation "Infinite Infrared Regularization in Krein Spaces"
This extended write-up of a talk gives an introductory survey of mathematical problems of the quantization of gauge systems. Using the Schwinger model as an exactly tractable but nontrivial example which exhibits general features of gauge quantum field theory, I cover the following subjects: The axiomatics of quantum field theory, formulation of quantum field theory in terms of Wightman functions, reconstruction of the state space, the local formulation of gauge theories, indefiniteness of the Wightman functions in general and in the special case of the Schwinger model, the state space of the Schwinger model, special features of the model. New results are contained in the Mathematical Appendix, where I consider in an abstract setting the Pontrjagin space structure of a special class of indefinite inner product spaces - the so called quasi-positive ones. This is motivated by the indefinite inner product space structure appearing in the above context and generalizes results of Morchio and Strocchi [J. Math. Phys. 31 (1990) 1467], and Dubin and Tarski [J. Math. Phys. 7 (1966) 574]. See the corresponding paper: Schmidt, Andreas U.: "Infinite Infrared Regularization and a State Space for the Heisenberg Algebra" and the presentation "Infinite Infrared Regularization in Krein Spaces".
Synthese von modifizierten Nukleotiden und modifizierten Oligodesoxynukleotiden zur DNA-Analytik
(2004)
1.) Entwicklung eines Verfahrens zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf einem Sonden-Array Innerhalb des Projektes sollte ein Verfahren entwickelt werden, dass zum Nachweis von Wechselwirkungen zwischen Sondenmolekülen und Targetmolekülen auf Sonden-Arrays genutzt werden kann. Der prinzipielle Aufbau dieses Testsystems wird in der vorliegenden Arbeit beschrieben. Einer der entscheidenden Schritte zur Entwicklung dieses Verfahrens, ist die Einführung einer selektiv spaltbaren Bindung innerhalb der DNA. Die von uns hierfür präferierte Bindung ist die 5´-O-P-S-3´ Bindung. Das erste zu realisierende Ziel bestand damit in der Synthese der entsprechend 5´-Thio-modifizierten Amidite. Die Synthese von 4,4´-Dimethoxytriphenylmethanthiol, als alternative Schwefel-Quelle und gleichzeitig temporäre 5´-Schutzgruppe stellt den Schlüsselschritt der erfolgreichen Synthese dar. Mit Hilfe dieser Strategie gelingt es, die entsprechend benötigten modifizierten Amidite in zufriedenstellender Ausbeute herzustellen. Durch die Anwendung eines modifizierten Synthesezyklus ist die Synthese eines entsprechend Schwefel-modifizierten Modelloligodesoynukleotids möglich. Mit Hilfe dieser Verbindung wurde die erwünschte Spaltung der 5´-O-P-S-3´ Bindung mit Silbernitrat in Lösung und an verschiedenen Oberflächen (Chip, Biacore-Chip und Magnetic Beads) untersucht. 2.) Punktmutationsdetektion durch festphasenvermittelte Single Nucleotide Primer Extension (SNuPE) und MALDI-MS Ziel dieses Projektes war die Entwicklung eines neuen, elektrophoresefreien Verfahrens zur Detektion von bekannten Punktmutationen mittels fester Phase und der MALDI-Massenspektrometrie. Hierfür wird zunächst ein synthetisches Oligodesoxynukleotid, welches später als Primer fungiert, über einen photolytisch spaltbaren Linker an eine feste Phase gebunden. Dessen Oligodesoxynukleotid-Sequenz wird dabei so ausgewählt, daß sie komplementär zur Zielsequenz einer mutierten DNA ist und direkt vor der zu detektierenden Punktmutation endet. Durch eine enzymatische Polymerasereaktion wird der Primer dann um eine Base, die entweder komplementär zur korrekten DNA oder zur Mutation ist, verlängert. Das Reaktionsprodukt kann dann direkt mittels MALDI-MS photolytisch von der festen Phase getrennt und analysiert werden. Die Masse des Reaktionsproduktes ist festgelegt durch den erfolgten Einbau einer von vier Nukleobasen und gibt daher unmittelbar Auskunft über das Vorhandensein einer Punktmutation. Zunächst sollte die prinzipielle Durchführbarkeit des Projekts erarbeitet werden. Wesentliche Vorteile dieser neuen Methode im Vergleich zu bestehenden Verfahren wären der außerordentlich geringe Zeitaufwand und die unmittelbare Detektion ohne Label. Das hier entwickelte Konstrukt gestaltete sich allerdings für die Anwendung als ein Standardanalyseverfahren zu komplex, da für die Detektion von Punktmutationen aussagekräftigere und einfachere Verfahren bereits zur Verfügung stehen, der hier beobachtete Spaltungs-mechanismus wirft jedoch einige Fragen auf. Für einen Einsatz als photolabiles Trägermaterial ist dieses Konstrukt jedoch ebenfalls zu kompliziert. 3.) Verknüpfungsreaktionen von Acetal-geschützten Oligodesoxynukleotiden mit Hydrazin-modifizierten Derivaten Die effektive Konjugation von modifizierten Oligodesoxynukleotiden und Hydrazin-Derivaten durch die Verwendung einer 5´-Acetalfunktion konnte hier durch die Verwendung eines aromatischen Phosphitylierungsreagenz gezeigt werden. Das hergestellte 5´-Acetal-modifizierte Oligodesoxynukleotid fungiert hier als ein maskiertes 5´-Aldehyd. Der Einsatz des maskierten Acetals weist gegenüber dem reaktiven Aldehyd-Derivat mehrere Vorteile auf: es ist lagerstabil, gut handhabbar und stabil gegenüber den Bedingungen der Oligodesoxynukleotid-Synthese. Ein aromatisches Acetal-geschützte Oligodesoxynukleotid kann in einer Eintopfreaktion mit einem entsprechenden Hydrazin-Derivat umgesetzt werden. Das verwendete Hydrazin-Derivat muß jedoch als Hydrochlorid oder als Trifluoracetat eingesetzt werden. Die Reaktion erfolgt in wässriger methanolischer Lösung durch den Zusatz von Natriumacetat, dieses katalysiert die Reaktion. Durch den Einsatz von Methanol als Lösungsmittel kann der Reaktionsansatz direkt mit Hilfe der HPL-Chromatographie gereinigt werden. Die Umsetzung des Acetal-modifizierten Oligodesoxynukleotids wurde mit verschiedenen Hydrazinen durchgeführt. Die mit den Hydrazinen erreichten Ausbeuten übersteigen bei weitem (Ausnahme Biotin) die der entsprechenden Aktivester. Vorallem das Arbeiten in wässriger Lösung erleichtert die Synthese und die Aufreinigung. Hiermit steht eine 5´-Modifikation zur Verfügung, die eine Konjugation mit Hydrazin-Derivaten in sehr guten Ausbeuten ermöglicht.
In der vorliegenden Arbeit werden Stöße zwischen Alpha-Teilchen und Li-ähnlichen Ionen sowie Stöße zwischen vollständig ionisierten Projektilionen und dem Li-ähnlichen Ion N4+ untersucht. Hierzu wird die zeitabhängige Schrödinger-Gleichung unter Verwendung einer effektiven Einteilchenbeschreibung im Rahmen der nichtpertubativen Basis Generator Methode (BGM) gelöst.
In der medizinischen Praxis in Deutschland ist Klassifikation als essentieller Bestandteil der Dokumentation in vielen Bereichen durch gesetzliche Regelungen vorgeschrieben. Über diesen gesetzlich determinierten Rahmen hinaus können durch Klassifikation vergleichbar gemachte Informationen als Basis neuer wissenschaftlicher Erkenntnisse herangezogen werden und weiterhin helfen, bestehende Lehrmeinungen zu evaluieren. Ein Blick auf die im medizinischen Umfeld vorhandene organisatorische Realisierung der Klassifikation zeigt, daß diese in der Regel von medizinisch qualifiziertem Fachpersonal neben der eigentlichen Tätigkeit durchgeführt wird. Eine Klassifikation vorhandener Dokumentationen im Sinne einer Erschließung zusätzlicher wertvoller Informationsquellen über den gesetzlichen Mindestumfang hinaus scheitert somit häufig an der organisatorisch bedingten Überlastung der eingesetzten Mitarbeiter. Eine Unterstützung medizinischer Klassifikation in der Praxis durch den geeigneten Einsatz von Informationstechnologie (IT) erscheint somit sinnvoll und wünschenswert. Im Rahmen der vorliegenden Arbeit wird ein entsprechender Ansatz in Form eines entwickelten Prototypen (XDIAG) vorgestellt und evaluiert. Der entwickelte Prototyp realisiert ein IT-gestütztes leitbegrifforientiertes Verfahren zur automatischen Kodierung von Diagnosen auf Basis vorliegender medizinischer Freitexte. Die hierbei realisierten Ansätze und Verfahren folgen den Vorschlägen von Herrn D. Schalck und sind somit das Resultat langjähriger intensiver und praxisnaher Beschäftigung mit Fragen medizinischer Freitextverarbeitung und Klassifikation. Die besondere Vorgehensweise verleiht dem vorgestellten Prototypen den Charakter einer Heuristik. In Abgrenzung zu zahlreichen bestehenden Verfahren erfolgt eine konsequente Reduktion der Komplexität der eingesetzten Algorithmen und Stammdaten durch einen Verzicht auf eine tiefgreifende linguistische Analyse der zur Kodierung vorgelegten Texte. Durch diesen Verzicht kann auf die Verwendung einer Grammatik und somit auf die Verwendung komplexer Stammdaten verzichtet werden. Als Stammdatenbasis werden vielmehr Datenbestände verwendet, die entweder besonders leicht zu pflegen sind oder aber ohnehin permanent im Rahmen von Langzeitprojekten gepflegt werden. An dieser Stelle spielt insbesondere der ICD10-Diagnosen-Thesaurus mit seiner umfassenden und besonders praxisorientierten Begriffsmenge eine wichtige Rolle. In Erweiterung bestehender Verfahren bietet der vorgestellte Prototyp darüber hinaus die Möglichkeit, mehrere medizinische Diagnosen im Rahmen eines Satzes zu kodieren. Weiterhin können dem Benutzer interaktiv qualifizierte Fehlerhinweise mit dem Ziel einer verbesserten Kodierung bereitgestellt werden. Als Ergebnis der Evaluation des realisierten Prototypen läßt sich festhalten, daß die hierbei eingesetzten Verfahren helfen können, eine synergistische Brücke zwischen praktischer Medizin, medizinischer Verwaltung und medizinischer Forschung zu schlagen, wenn sie an der richtigen Stelle und mit der richtigen Motivation eingesetzt werden.
Das Lupus-Antikoagulans ist mit einem deutlich erhöhten Risiko für arterielle und venöse Thrombosen assoziiert, so dass ihr Nachweis im Labor von großer klinischer Relevanz ist. Bei den meisten bisher verfügbaren Testsystemen sind Sensitivität und Präzision häufig unbefriedigend, und es kann zu falsch positiven Testergebnissen durch Heparin oder orale Antikoagulantien kommen. Ziel dieser Arbeit war es daher, einen präzisen, sensitiven und spezifischen Test zum optimierten Nachweis des Lupus-Antikoagulans zu entwickeln. Hierzu wurde ein auf der aPTT basierendes vollautomatisches Testprinzip entwickelt, bei dem Mischungen eines lupussensitiven und eines lupusinsensitiven aPTT-Reagenzes mit Patientenplasma oder Normalplasma hergestellt wurden. Die Ergebnisangabe erfolgte in Form einer Ratio, bei der jeweils die beiden Ratios des Patienten– und Normalplasmas nochmals in Relation gesetzt werden. Es wurden 99 Blutspender, 10 Patienten unter einer intravenösen, therapeutischen Behandlung mit unfraktioniertem Heparin, 19 oral antikoagulierte Patienten, sowie 5 Patienten mit Hämophilie A und 15 Patienten mit Antiphospholipid-Syndrom mit dem neuen Testsystem untersucht. Für die Präzision innerhalb einer Messreihe und von Tag zu Tag ergaben sich Varianzkoeffizienten von 1,5 – 1,9%. Der Mittelwert + 2SD der Ratio lag für die 99 Blutspender bei 1,07 und diente als Cutoff. Ein negatives Testergebnis zeigten alle mit Heparin oder oralen Antikoagulantien behandelten Patienten (Spezifität: 100%), 1/5 Patienten mit Hämophilie A reagierte positiv (80%), dieser hatte jedoch eine Faktor VIII Hemmkörper entwickelt. Von den 15 Patienten mit einem definitiven Antiphospholipid-Syndrom wiesen 13 eine erhöhte Ratio auf (Sensitivität: 87%). Somit ermöglicht dieses neu entwickelte Testsystem vollautomatisch einen präzisen, sensitiven und spezifischen Nachweis des Lupus-Antikoagulans.
Für ein Assessment Center zur Auswahl von Versicherungs-Außendienstmitarbeitern wurde geprüft, ob Beobachterexperten und Beobachternovizen zu ähnlichen oder zu unterschiedlichen Schlussfolgerungen über die Teilnehmer kommen. Eine ähnliche Schlussfolgerung sollte dabei Indikator dafür sein, dass ein Beobachtertraining (hier: Verbesserung der Beobachterexpertise durch wenigstens einmalige Teilnahme an einem AC als Beobachter) ohne Auswirkungen bleibt. Verglichen wurden die Ergebnisse dieser Beobachtergruppen mit dem AC-Leiter als "Oberexperten" und der AC-Assistenz. Im Rahmen der vorliegenden Untersuchung wurden die Daten von 37 AC mit insgesamt 267 Kandidaten und 171 Beobachtern in zwei unterschiedlichen Datensätzen überprüft. Es konnte nachgewiesen werden, dass sowohl Experten wie auch Novizen eine hohe Übereinstimmung mit der Gesamtrangfolge über die Teilnehmer hatten; hinsichtlich der übungsbezogenen und der merkmalsbezogenen mittleren Korrelationen sowie der mittleren Korrelationen innerhalb der einzelnen Übungen wurden kaum signifikante Unterschiede zwischen den einzelnen Beobachtergruppen festgestellt. Aus diesem Grunde kann geschlossen werden, dass die Teilnahme an einem AC als Beobachter nicht notwendigerweise die Beobachterexpertise verbessert. Angesichts der hohen Übereinstimmung der Beobachtergruppen mit der Gesamtrangfolge über die Teilnehmer kann geschlossen werden, dass für den vorliegenden einfachen AC-Typ verbunden mit der spezifischen Art der Ergebnisgewinnung der Verzicht auf ein Beobachtertraining nicht notwendigerweise eine Verschlechterung der AC-Ergebnisse bedeutet.
Bei den Non-Hodgkin Lymphomen (NHL) handelt es sich um eine heterogene Gruppe von Erkrankungen, die mit Strahlen- und Chemotherapie behandelt werden können. Im Frühstadium lassen sich mit der Bestrahlung Heilung erzielen, im forgeschrittenen Stadium und bei Rückfällen sind aber, zumindest bei den niedrigmalignen Lymphomen, keine Heilung mehr durch Chemotherapie und Strahlentherapie möglich. Ein neuartiger Therapieansatz erscheint nun möglich mit der Anwendung des ersten monoklonalen Antikörpers in der Hämatologie. Rituximab ist ein chimärer monoklonaler Antkörper mit humanen konstanten IgG1- und Kappa-Regionen und variablen Regionen eines Maus-Antikörpers gegen das CD20-Antigen, das von fast allen B-Zellen und auch den meisten Lymphomzellen exprimiert wird Rituximab richtet sich daher auch gegen normale, nicht maligne B-Zellen, schädigt aber nicht die Stammzellen, die wiederum für die Neubildung von B-Zellen zuständig sind. Die Wirkung des Antikörpers beruht dabei auf verschiedenen Mechanismen der Indukation von Apoptose sowie auf einer direkten Zytotoxizität. Rituximab besitzt bereits in der Anwendung als Monotherapie eine erhebliche antitumorale Aktivität. Die bisherigen Studien belegen, daß Rituximab als Monotherapie gegen B-Zell-Lymphome wirksam ist, diese aber auch nicht dauerhaft heilen kann. Daher stellt sich die Frage nach dem kombinierten Einsatz von Rituximab mit konventionellen Chemotherapien. Die grundsätzlich verschiedenartigen Wirkungs-, Toxizitäts- und Resistenzmechanismen sprechen für eine derartige Therapiekombination. In in vitro durchgeführten Versuchsreihen konnten syneristische Effekte der Kombination aus Chemotherapie und Rituximab beobachtet werden. Insbesondere scheint Rituximab einen chemotherapie- sensiblisierenden Effekt zu haben. in einer randomisierten Studie von Hiddemann et al. konnte die Überlegenheit von einer Polychemotherapie CHOP plus Rituximab gegenüber CHOP allein demonstriert werden. Die Remissionsrate war für die Kombinationstherapie CHOP plus Rituximab signifikant höher im Vergleich für CHOP alleine. Der Vorteil für die Kombination aus CHOP plus Rituximab war bei den Mantelzell-Lymphomen noch ausgeprägter. In unserer Arbeitsgruppe untersuchten wir in einer im Jahre 2000 initiierten Phase-II-Studie die Kombination von Bendamustin plus Rituximab bei Patienten mit fortgeschrittenen progredienten rezidivierten oder refraktären niedrigmalignen oder Mantelzell-Lymphomen. Ein anderes Therapieschema, welches bei diesen Lymphomentitäten in einer Studie geprüft wurde, war die Kombination aus Cladribin und Mitoxantron plus Rituximab. Bei hochmalignen wurde die Kombination aus Rituximab plus Gemcitabin, Oxaliplatin und Bendamustin untersucht. Ziel und Gegenstand dieser retrospektiven Untersuchung war, die eigenen Ergebnisse im Kontext mit anderen Studienergebnissen zu bewerten und diskutieren. 139 Patienten mit therapierefraktärem oder rezidiviertem Non-Hodgkin-Lymphom sind im Zeitraum von 1999 bis 2003 mit einer Rituximab-haltigen Chemotherapie behandelt worden. Das ORR lag für die einzelnen Lymphomentitäten wie folgt: - Follikulärs Lymphom: 89% - Mantelzell-Lymphom: 37% - Immunozytom : 84% - Diffus-großzelliges B-NHL: 64% Im Median dauerte die Remission für die jeweilige Erkrankung: - Follikulärs-Lymphom: 12,8 Monate - Mantelzell-Lymphom: 8,5 Monate - Immunozytom: 11,6 Monate - Diffus-großzelliges B-NHL : 10,2 Monate Die Ansprechraten lagen dabei für das prognostische ungünstige Mantelzell-Lymphom bei 37%, für die indolenten Lymphomentitäten Immunozytom und follikulären Lymphom bei 84% respektive 89%. Bei den hochmalignen Diffus-großzelligem B-NH Lymphomen konnte eine Remissionsrate von 64% erzielt werden. Die kürzeste Remissionsdauer war beim Mantelzell-Lymphom, die längste war beim follikulären Lymphom. Diese Therapieergabnisse erscheinen verbessert im Vergleich zu den etablierten Chemotherapieresultaten und vergleichbar mit internationalen Literatur publizierten Daten. Bei der Durchführung der Therapien mit Rituximab plus Chemotherpie konnte keine klinische relevante erhöhte Toxizität beobachtet werden. Die Patienten haben die Behandlung mit Antikörper Rituximab gut toleriert. nur 1,4% der Patienten (2 von 141) mussten die Behandlung mit Rituximab abbrechen. Ob die Verbesserung der Ansprechraten, die wir in unserer Studie in der retrospektiven Auswertung beobachtet haben, auch zu einer Verlängerung der Überlebenswahrscheinlichkeit und zu einer Verbesserung der Prognose dieser Krankheitsentitäten führen wird, ist noch nicht abschließend geklärt und muss erst noch in größeren prospektiven Studien geklärt werden.
Die Inhibition des Natrium-Protonen-Austauschproteins, Subtyp-1 (NHE-1), stellt möglicherweise ein wichtiges Prinzip zur Behandlung der Herzhypertrophie und damit der frühen Herzinsuffizienz dar. Als Ausgangspunkt dieser Arbeit konnte gezeigt werden, dass der oral bioverfügbare und selektive NHE-1-Inhibitor Cariporide dabei u.a. in einem transgenen Tiermodell wirkt, bei dem die Hypertrophie nicht durch Myokardinfarkt, sondern mittels transgener Überexpression des beta-1-adrenergen Rezeptors erzeugt wurde, die Hypertrophie-Entwicklung verhinderte. Um die Wirkung und vor allem den Wirkmechanismus von NHE-1-Inhibitoren näher zu untersuchen, wurde in der vorliegenden Arbeit ein zelluläres Modell der alpha-1-adrenergen Hypertrophie-Induktion in adulten Kardiomyozyten aus Rattenherzen aufgebaut und mittels gängiger Parameter wie Zellvolumen, Protein und RNA-Neusynthese validiert. Dabei konnte ein klassenspezifischer Hemmeffekt aller eingesetzten NHE-1-Inhibitoren auf die untersuchten Hypertrophie-Parameter gezeigt werden. Interessante molekulare Mechanismen der Hypertrophie-Inhibition durch spezifische NHE-1- Inhibitoren konnten in der vorliegenden Arbeit aufgedeckt werden. Nach alpha-1-adrenerger Stimulation und gleichzeitiger NHE-1-Inhibition waren nur wenige Gene in ihrer Expression deutlich differentiell reguliert, darunter der Angiotensin-II AT-1 Rezeptor und die sogenannte Rho-kinase (ROCK). Aus dieser Erkenntnis heraus ergeben sich neue mögliche Ansatzpunkte zum Wirkmechanismus von NHE-1-Inhibitoren. Im Gegensatz zu Befunden bei Herzischämie scheint es bei der Herzhypertrophie im vorliegenden Modell keine Kopplung zwischen dem NHE-1 und einem weiteren Austauschprotein, dem Natrium-Calcium-Austauscher, zu geben. Die Hypertrophie der adulten Kardiomyozyten ließ sich nicht durch einen selektiven Hemmstoff dieses Austauschers, SEA0400, hemmen. Bei näherer Untersuchung auf Translationsebene zeigten sich überraschende Ergebnisse, die für eine Hemmung der Hypertrophie-Entwicklung in Anwesenheit eines NHE-1-Inhibitors verantwortlich gemacht werden könnten. So war auf der einen Seite die Translokation von in adulten Kardiomyozyten exprimierten PKC-Subtypen (delta und eta) vom Zytosol an die Plasmamembran durch die NHE-1-Inhibition signifikant beeinflusst. Auf der anderen Seite war die Phosphorylierung bestimmter NHE-1-aktivierender Kinasen über den gesamten betrachteten Zeitraum verstärkt vorhanden. Diese Ergebnisse legen nahe, dass neben möglichen Autoregulationseffekten in der Zelle, ausgelöst durch eine NHE-1-Inhibition, eine weitere Wirkkomponente eine Rolle bei der Beeinflussung intrazelluläre membranabhängiger Translokation spielen könnten.
Wir führen eine neue Unterklasse der Fourier Hyperfunktionen mit polynomialen Wachstumsbedingungen ein mit dem Ziel, asymptotische Entwicklungen von Hyperfunktionen studieren zu wollen, wie sie für gewisse Distributionenklassen bekannt sind. Wir entwickeln zuerst die Theorie analytischer Funktionale auf Räumen integrabler Funktionen bezüglich Maßen mit Wachstum O(|Re z|^gamma), wobei gamma in R ist, im Unendlichen. Ein an das berühmte Phragmén-Lindelöf-Prinzip erinnerndes, einfaches analytisches Resultat bildet die Basis der Dualitätstheorie dieser Räume zu Funktionen mit festgelegtem Wachstumstyp. Wir studieren diese Dualität analytischer Funktionale mit Wachstumsbedingungen und unbeschränkten Trägern gründlich in einer Dimension unter Verwendung des von den Fourier Hyperfunktionen her bekannten exponentiell abfallenden Cauchy-Hilbert-Kerns. Daraus ergeben sich Analoga zu den Theoremen von Runge und Mittag-Leffler, die die Grundlage für die Garbentheorie der Hyperfunktionen mit polynomialen Wachstumsbedingungen sind, die wir sodann entwickeln. Die für uns wichtigsten neuen Klassen von Fourier Hyperfunktionen sind die von unendlichem Typ, das heißt solche, die wie eine beliebige Potenz wachsen beziehungsweise schneller als jede Potenz abfallen. In n Dimensionen benutzen wir die Fouriertransformation und Dualität um das Verhältnis dieser temperierten beziehungsweise asymptotischen Hyperfunktionen zu bekannten Distributionenräumen zu studieren. Wir leiten Theoreme vom Paley-Wiener-Typ her, die es uns erlauben, unsere Hyperfunktionen in ein Schema zu ordnen, das Wachstumsordnung und Singularität gegenüberstellt. Wir zeigen, daß dieses Schema eine sinvolle Erweiterung des von Gelfand und Shilow zur Charakterisierung von Testfunktionenräumen eingeführten Schemas der Räume S(alpha,beta) um verallgemeinerte Funktionen ist. Schließlich zeigen wir die Nuklearität der temperierten und asymptotischen Hyperfunktionen. Wir zeigen, daß die asymptotischen Hyperfunktionen genau die Klasse bilden, die Moment-asymptotische Entwicklungen erlauben, wie sie von Estrada et al. für Distributionen betrachtet wurden. Estradas Theorie ist damit ein Spezialfall der unsrigen. Für Hyperfunktionen lassen sich aber dank des Konzeptes der standard definierenden Funktionen die Moment-asymptotischen Entwicklungen als klassische asymptotische Entwicklungen von analytischen Funktionen verstehen. Wir zeigen die einfache Beziehung zwischen der Moment-asymptotischen Entwicklung und der Taylorentwicklung der Fouriertransformierten und benutzen dann ein Resultat von Estrada, um die Vollständigkeit unseres Moment-asymptotischen Schemas abzuleiten. Wir geben genaue Bedingungen für die Moment-Folgen von Hyperfunktionen mit kompaktem Träger an, die kürzlich von Kim et al. gefunden wurden. Die asymptotischen Entwicklungen übertragen wir auf den höherdimensionalen Fall, indem wir die von Kaneko und Takiguchi eingeführte Radontransformation für Hyperfunktionen verwenden. Die wohlbekannte Beziehung zwischen Radon- und Fouriertransformation zeigt wiederum das enge Verhältnis von asymptotischer Entwicklung zur Taylorentwicklung der Fouriertransformierten. Wir benutzen Kims Resultate, um die Moment-Folgen von Hyperfunktionen zu charakterisieren, die von Kugeln mit endlichem Radius getragen werden. Schließlich verwenden wir das Träger-Theorem der Radontransformation, um ein Resultat über das Singularitätenspektrum aus Bedingungen an die Radontransformierte abzuleiten.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
Drug target 5-lipoxygenase : a link between cellular enzyme regulation and molecular pharmacology
(2005)
Leukotriene (LT) sind bioaktive Lipidmediatoren, die in einer Vielzahl von Entzündungskrankheiten wie z.B. Asthma, Psoriasis, Arthritis oder allergische Rhinitis involviert sind. Des Weiteren spielen LT in der Pathogenese von Erkrankungen wie Krebs, Osteoarthritis oder Atherosklerose eine Rolle. Die 5-Lipoxygenase (5-LO) ist das Enzym, das für die Bildung von LT verantwortlich ist. Aufgrund der physiologischen Eigenschaften der LT, ist die Entwicklung von potentiellen Arzneistoffen, welche die 5-LO als Zielstruktur besitzen, von erheblichem Interesse. Die Aktivität der 5-LO wird in vitro durch Ca2+, ATP, Phosphatidylcholin und Lipidhydroperoxide (LOOH) und durch die p38-abhängige MK-2/3 5-LO bestimmt. Inhibitorstudien weisen darauf hin, dass der MEK1/2-Signalweg ebenfalls in vivo an der 5-LO Aktivierung beteiligt ist. Hauptziel dieser Arbeit war es zu untersuchen, welche Rolle der MEK1/2-Signalweg bei der Aktivierung der 5-LO besitzt und welchen Einfluss der 5-LO Aktivierungsweg auf die Wirksamkeit potentieller Inhibitoren hat. „In gel kinase“ und „In vitro kinase“ Untersuchungen zeigten, dass die 5-LO ein Substrat für die Extracellular signal-regulated kinase (ERK) und MK-2/3 darstellt. Der Zusatz von mehrfach ungesättigten Fettsäuren (UFA), wie AA oder Ölsäure, verstärkte den Phosphorylierungsgrad der 5-LO sowohl durch ERK1/2 als auch durch MK-2/3. Die genannten Kinasen sind demnach auch für die 5-LO Aktivierung durch natürliche Stimuli verantwortlich, die den zellulären Ca2+-Spiegel kaum beeinflussen. Daraus ist ersichtlich, dass die Phosphorylierung der 5-LO durch ERK1/2 und/oder MK-2/3 einen alternativen Aktivierungsmechanismus neben Ca2+ darstellt. Ursprünglich wurden Nonredox-5-LO-Inhibitoren als kompetitive Wirkstoffe entwickelt, die mit AA um die Bindung an die katalytische Domäne der 5-LO konkurrieren. Vertreter dieser Inhibitoren, wie ZM230487 und L-739,010, zeigen eine potente Hemmung der LT-Biosynthese in verschiedenen Testsystemen. Sie scheiterten jedoch in klinischen Studien. In dieser Arbeit konnten wir zeigen, dass die Wirksamkeit dieser Inhibitoren vom Aktivierungsweg der 5-LO abhängig ist. Verglichen mit 5-LO Aktivität, die durch den unphysiologischen Stimulus Ca2+-Ionophor induziert wird, erfordert die Hemmung zellstress-induzierter Aktivität eine 10- bis 100-fach höhere Konzentration der Nonredox-5-LO-Inhibitoren. Die nicht-phosphorylierbare 5-LO Mutante (Ser271Ala/Ser663Ala) war wesentlich sensitiver gegenüber Nonredox-Inhibitoren als der Wildtyp, wenn das Enzym durch 5-LO Kinasen aktiviert wurde. Somit zeigen diese Ergebnisse, dass, im Gegensatz zu Ca2+, die 5-LO Aktivierung mittels Phosphorylierung die Wirksamkeit der Nonredox-Inhibitoren deutlich verringert. Des Weiteren wurde das pharmakologische Profil des neuen 5-LO Inhibitors CJ-13,610 mittels verschiedener in vitro-Testsysteme charakterisiert. In intakten PMNL, die durch Ca2+-Ionophor stimuliert wurden, hemmte die Substanz die 5-LO Produktbildung mit einem IC50 von 70 nM. Durch Zugabe von exogener AA, wird die Wirkung vermindert und der IC50 des Inhibitors steigt an. Dies deutet auf eine kompetitive Wirkweise hin. Wie die bekannten Nonredox-Inhibitoren, verliert auch CJ-13,610 seine Wirkung bei erhöhtem zellulärem Peroxidspiegel. Der Inhibitor CJ-13,610 zeigt jedoch keine Abhängigkeit vom Aktivierungsweg der 5-LO. Grundsätzlich ist es also von fundamentaler Bedeutung bei der Entwicklung von neuen Arzneistoffen, die zellulären Zusammenhänge, insbesondere die Regulierung der Aktivität von Enzymen, zu kennen. Wie in dieser Arbeit gezeigt, hat die Phosphorylierung der 5-LO einen starken Einfluss auf die Regulation der 5-LO Aktivität und eine elementare Wirkung auf die Hemmung des Enzyms durch verschiedene Wirkstoffe.
Die vorliegende Arbeit befasste sich mit der Entwicklung und der Aufbau einer neuartigen Fingerdriftröhren-Struktur als Teil des neuen Vorbeschleunigers COSY-SCL am Kernforschungszentrum in Jülich. In dieser Arbeit wird die Entwicklung der Spiralresonatoren beschrieben, die als Nachbeschleuniger direkt hinter den RFQs zum Einsatz kommen sollen. Als mögliche Option zur Verbesserung der Strahlqualität wurden Fingerdriftröhren vorgeschlagen. Mit Hilfe dieser Struktur ist es möglich, mit geringer zusätzlicher Leistung eine Fokussierung des Ionenstrahls in der beschleunigenden Struktur zu erreichen. Dies war bisher nur bei niedrigen Energien mit der RFQ-Struktur möglich. Bei höheren Energien ist man stets auf magnetische Quadrupollinsen angewiesen. Dies führt jedoch gerade in einem Geschwindigkeitsbereich bis ca. 10 % der Lichtgeschwindigkeit zu Problemen, da die zur Verfügung stehenden Abmessungen zu gering sind. Nachdem zunächst das COSY-SCL Projekt vorgestellt wurde und die grundlegende Theorie für RFQ und Driftröhrenbeschleuniger behandelt wurde, wurden in Kapitel 5 Rechnungen zur Strahldynamik mit dem Programm RFQSIM vorgestellt. Aufgrund der hohen benötigten Gesamtspannung fiel die Entscheidung, einen Vierspaltresonator mit einer geerdeten Mitteldriftröhre aufzubauen. Durch diese Veränderung wurde es möglich, die Feldstärken in den einzelnen Spalten gleichmäßiger zu verteilen und niedriger zu halten, und die benötigte Verlustleistung zu minimieren. Die Teilchendynamik in einem Beschleunigungsspalt mit Fingerelektroden wurde mit einem neuen Transportmodul in RFQSIM untersucht, das den Transport geladener Teilchen durch beliebige dreidimensionale Elektrodenkonfiguration ermöglicht. Mit Hilfe der Fingerdriftröhren ist es möglich, die transversale Ausdehnung des Strahls am Ausgang des Nachbeschleunigers zu verringern und die Anpassung an einen folgenden Beschleuniger zu vereinfachen, ohne das große Einbußen bezüglich der Effektivität der Beschleunigung in Kauf genommen werden müssen. Um die HF Eigenschaften der beiden Beschleunigerstrukturen zu vergleichen, wurden sie mit dem MWS Programm numerisch berechnet. Um genauere Aussagen über die Eigenschaften des elektrischen Feldes zu machen, wurde eine Multipolanalyse der Felder durchgeführt. Damit lässt sich eine Aussage über die Stärke der Fokussierung und mögliche Feldfehler machen. Dabei zeigte sich, dass die auftretenden Feldfehler vernachlässigbar klein sind und sogar störende Effekte unterdrückt werden. Abschließend wurde der Aufbau des Resonators und den daran durchgeführten Messungen auf Meßsenderniveau behandelt. Resultat dieser Untersuchungen ist eine Struktur, die sehr gut und effektiv als Nachbeschleuniger hinter dem RFQ für COSY-SCL eingesetzt werden kann. Durch den Einsatz der Fingerdriftröhren kann mit einer einzelnen Struktur sowohl die Aufgabe der Beschleunigung als auch der Fokussierung bei mittleren Teilchenenergien bewältigt werden. Der neue fokussierende Spiralresonator entspricht in seinen Eigenschaften einer RFQ-Struktur für höhere Teilchengeschwindigkeiten. Die Ergebnisse dieser Arbeit zeigen, wie attraktiv eine solche Lösung mit Fingerdriftröhren ist. Deshalb ist geplant, in einem nächsten Schritt Strahltests durchzuführen, da die beschriebene Driftröhrenstruktur mit ihren Eigenschaften sehr gut für die Beschleunigung von Ionen in dem Geschwindigkeitsbereich zwischen RFQ- und IH Struktur geeignet ist und ein Einsatz z.B. in dem FLAIR Projekt möglich wäre.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
A fundamental work on THz measurement techniques for application to steel manufacturing processes
(2004)
The terahertz (THz) waves had not been obtained except by a huge system, such as a free electron laser, until an invention of a photo-mixing technique at Bell laboratory in 1984 [1]. The first method using the Auston switch could generate up to 1 THz [2]. After then, as a result of some efforts for extending the frequency limit, a combination of antennas for the generation and the detection reached several THz [3, 4]. This technique has developed, so far, with taking a form of filling up the so-called THz gap . At the same time, a lot of researches have been trying to increase the output power as well [5-7]. In the 1990s, a big advantage in the frequency band was brought by non-linear optical methods [8-11]. The technique led to drastically expand the frequency region and recently to realize a measurement up to 41 THz [12]. On the other hand, some efforts have yielded new generation and detection methods from other approaches, a CW-THz as well as the pulse generation [13-19]. Especially, a THz luminescence and a laser, originated in a research on the Bloch oscillator, are recently generated from a quantum cascade structure, even at an only low temperature of 60 K [20-22]. This research attracts a lot of attention, because it would be a breakthrough for the THz technique to become widespread into industrial area as well as research, in a point of low costs and easier operations. It is naturally thought that a technology of short pulse lasers has helped the THz field to be developed. As a background of an appearance of a stable Ti:sapphire laser and a high power chirped pulse amplification (CPA) laser, instead of a dye laser, a lot of concentration on the techniques of a pulse compression and amplification have been done. [23] Viewed from an application side, the THz technique has come into the limelight as a promising measurement method. A discovery of absorption peaks of a protein and a DNA in the THz region is promoting to put the technique into practice in the field of medicine and pharmaceutical science from several years ago [24-27]. It is also known that some absorption of light polar-molecules exist in the region, therefore, some ideas of gas and water content monitoring in the chemical and the food industries are proposed [28-32]. Furthermore, a lot of reports, such as measurements of carrier distribution in semiconductors, refractive index of a thin film and an object shape as radar, indicate that this technique would have a wide range of application [33-37]. I believe that it is worth challenging to apply it into the steel-making industry, due to its unique advantages. The THz wavelength of 30-300 ¼m can cope with both independence of a surface roughness of steel products and a detection with a sub-millimeter precision, for a remote surface inspection. There is also a possibility that it can measure thickness or dielectric constants of relatively high conductive materials, because of a high permeability against non-polar dielectric materials, short pulse detection and with a high signal-to-noise ratio of 103-5. Furthermore, there is a possibility that it could be applicable to a measurement at high temperature, for less influence by a thermal radiation, compared with the visible and infrared light. These ideas have motivated me to start this THz work.
Die chemische Analyse von 17 abundanten Nordseeschwammarten zeigte, dass die Metabolitenzusammensetzung und -konzentration standortbedingt nur geringfügig schwanken. Den Großteil der Schwammmetaboliten bilden mittelpolare bis polare Substanzen ohne UV-Absorption. Allgemein scheinen in Nordseeschwämmen aromatische und olefinische Verbindungen seltener vorzukommen als in tropischen Arten. Die Chemie der einzelnen Nordseeschwämme ist oft ähnlich und wird von kleinen, stickstoffhaltigen Molekülen dominiert. Ubiquitär verbreitete, vermutlich phylogenetisch alte Substanzen wie Inosin, Allantoin, Homarin und Trigonellin wurden in zahlreichen untersuchten Arten nachgewiesen. Trigonellin und Homarin üben, wie für andere marine Organismen bereits dokumentiert, auch in den Nordseeschwämmen Schutzfunktion gegen Konkurrenten und Fouling-Organismen aus. Die identifizierten Verbindungen weisen darauf hin, dass den mit dem Aminosäure- und Purinstoffwechsel verbundenen Biosynthesewegen eine große Bedeutung in der Naturstoffsynthese der untersuchten Schwammarten zukommt. Diese Vermutung wird dadurch untermauert, dass auch die Bildung von Imidazolen (aus Phakellia ventilabrum isoliert) aus Histidin eng mit dem Purinstoffwechsel verbunden ist. Durch den Abbau von Histidin können wiederum Substanzen entstehen, die als Methyldonatoren in Frage kommen (methylierte Verbindungen, vgl. Pachymatisma johnstonia). Biologische Aktivität wurde anhand von Biotests zur antilarvalen, cytotoxischen, antibakteriellen, enzyminhibitorischen und bewuchshemmenden Wirkung in Extrakten der untersuchten Nordseeschwämme nachgewiesen. Dabei zeigten alle Schwammarten Effekte in mehr als einem Biotest. Diese Untersuchungen bestätigen das Vorkommen biologisch aktiver Substanzen in Schwämmen kaltgemäßigter Habitate und widerlegen damit die Latitudinalhypothese. Unabhängig von der geographischen Breite sind Schwämme weltweit einem selektiven Druck ausgesetzt, der die Entwicklung biologisch aktiver Metaboliten begünstigt. Die Art der Selektionsfaktoren scheint jedoch habitatbedingt unterschiedlich zu sein. Während in wärmeren Gewässern vor allem Prädatoren (Fische) das Überleben der Schwämme beeinflussen, sind in kälteren Gebieten Aufwuchsorganismen und Bakterien von entscheidender Bedeutung. Diese Annahme wird durch die Beobachtung der assoziierten Organismen ebenso unterstützt, wie durch die Tatsache, dass in allen untersuchten Nordseeschwammarten (Esperiopsis fucorum, Phakellia ventilabrum, Leucosolenia complicata, Cliona celata, Pachymatisma johnstonia) Bakterien nachgewiesen werden konnten. Neben den ökologischen Beobachtungen bekräftigt auch die starke antibakterielle Wirkung der Schwammmetaboliten diese Hypothese. Während Toxizität seltener beobachtet wurde, zeigten viele Schwämme auch enzyminhibitorische Wirkung. Zusammenhänge zwischen biologischer Aktivität und morphologischen bzw. taxonomischen Kriterien, Lebensweise, Habitatcharakteristika oder assoziierten Organismen waren nicht durch Clusteranalysen aufzudecken. Es konnten jedoch Unterschiede im Metabolitengehalt und der Art der assoziierten Organismen zwischen langlebigen, großen Kieselschwammarten und kleineren, saisonal wachsenden Kalkschwämmen hervorgehoben werden. Leucosolenia compl icata (Calcarea) ist sowohl qualitativ als auch quantitativ relativ metabolitenarm, biologisch sehr aktiv und mit einer großen Zahl an Bakterien assoziiert. Die Mikroorganismen scheinen für diese Art von größerer Bedeutung zu sein als bei den untersuchten Demospongiae. Einige Kieselschwämme (z.B. Cliona celata, Phakellia ventilabrum) sind besonders metabolitenreich, enthalten weniger Bakterien und verfügen ebenfalls über biologisch aktive Substanzen. Um diese Beobachtungen in einem ökologischen Zusammenhang zu sehen, sind eingehendere Studien, wie sie mit Pachymatisma johnstonia durchgeführt wurden, notwendig. Die Isolierung der Hauptmetaboliten von Pachymatisma johnstonia führte zur Identifizierung der methylierten Substanzen Betain, N,N,N-Trimethyl-ß-alanin, L-6-Bromohypaphorin und dem Pyridinalkaloid Trigonellin. Anhand verschiedener biologischer Tests konnte ein Einblick in die Wirkungsweise und Funktion der aktiven Metaboliten gewonnen werden. Die Aminosäure L-6-Bromohypaphorin und eine noch nicht identifizierte Substanz zeigten starke Enzyminhibition gegenüber einer Protein-Tyrosin-Kinase. L-6-Bromohypaphorin wurde im Pinacoderm unbewachsener Individuen in einer höheren Konzentration nachgewiesen als in Schwämmen mit Bryozoenbewuchs, und spielt demnach vermutlich bei der Abwehr von Fouling-Organismen eine Rolle. Bakterien wurden als Produzenten der aktiven Substanzen ausgeschlossen. Eine Abgabe der Metaboliten nach außen ist eher unwahrscheinlich. Die Extrakte von P. johnstonia zeigten starke antibakterielle Wirkung mit einer Breitbandaktivität, vor allem gegen marine Bakterien. Welche Substanzen für diese Effekte verantwortlich sind, ist nicht bekannt. Eine Hälterung von P. johnstonia war möglich. Ebenso wie Cliona celata passte sich der Schwamm an veränderte abiotische und biotische Faktoren an. Verletztes Gewebe wurde regeneriert und Hauptmetaboliten weiter produziert. Die Synthesetätigkeit von P. johnstonia schwankte, die biologische Aktivität blieb über neun Monate hinweg erhalten. Durch eine Optimierung der Hälterungsbedingungen könnte die Naturstoffproduktion vermutlich konstant gehalten werden. Mit P. johnstonia wurde somit ein gutes Beispiel für die Interaktion zwischen Naturstoffchemie, Ökologie und pharmakologischem Potential bzw. biotechnologischer Nutzbarkeit geliefert. Bedingt durch das Ziel der Arbeit, einen Überblick über die Chemie und biologische Aktivität der Nordseeschwämme zu gewinnen, wurde weniger Augenmerk auf die Isolierung neuer Strukturen gelegt. Im Zuge von intensiveren Studien wäre eine Optimierung der chemischen Methodik anzustreben. Die Aufklärung der in geringerer Konzentration vorkommenden Substanzen könnte hilfreich sein, um den ersten Eindruck der Metabolitenzusammensetzung zu überprüfen. Außerdem wird aufgrund der Biotestergebnisse die Existenz zahlreicher biologisch aktiver Substanzen, vor allem antibiotischer Wirkstoffe, vermutet, deren Isolierung eine Herausforderung darstellt. Besonders interessant ist in diesem Zusammenhang auch die Tatsache, dass bisher sämtliche medizinisch genutzten Antibiotika aus Mikroorganismen stammen, Schwämme aber weltweit über ein hohes antibiotisches Potential verfügen. Dadurch stellt sich erneut die Frage, ob Schwämme tatsächlich selbst in der Lage sind, wirksame Substanzen zu produzieren. Diese Ungewissheit zusammen mit der Tatsache, dass alle aus den Nordseeschwämmen isolierten und identifizierten Verbindungen aus Stoffwechselwegen stammen, die bisher als für Mikroorganismen typisch beschrieben wurden, bietet interessante Ansatzmöglichkeiten für weitere Untersuchungen. Auch wenn Schwämme zu den am besten untersuchten Organismen in der marinen Naturstoffchemie zählen, ist das Wissen im Bereich der chemischen Ökologie noch begrenzt. Um mehr über die Beziehung zwischen Schwämmen und ihrer belebten Umwelt zu erfahren und die Rolle der Naturstoffe dabei aufzudecken, müssen geeignete Untersuchungsmethoden bzw. Biotests etabliert werden. Abbildung 4.1 soll die Bedeutung der Schwämme für ihren Lebensraum und den Menschen hervorheben und die komplexen Zusammenhänge, welche durch die Wirkung der Naturstoffe vermittelt werden, verdeutlichen. Häufig werden Schwämme als primitive Organismen beschrieben, da sie sich durch das Fehlen eines Nervensystems und anderer Organe von höheren Tieren unterscheiden. Tatsächlich sind diese Lebewesen aber hochentwickelte Spezialisten. Optimal an eine sessile Lebensweise angepasst, bewohnen sie seit Millionen von Jahren erfolgreich vor allem marine Habitate in großer Artendiversität und Abundanz. Aufgrund der Produktion von aktiven Metaboliten zur Abwehr schädlicher Organismen stellen die Schwämme aus menschlicher Perspektive eine wertvolle Ressource dar. Nicht nur aus diesem Grund sollten wir Ihnen mit Respekt begegnen und versuchen, die (Naturstoff-)forschung nachhaltig zu betreiben, die Beeinträchtigung der Tiere auf ein vertretbares Maß zu reduzieren und ihren Lebensraum zu schützen.
The Kochen-Specker theorem has been discussed intensely ever since its original proof in 1967. It is one of the central no-go theorems of quantum theory, showing the non-existence of a certain kind of hidden states models. In this paper, we first offer a new, non-combinatorial proof for quantum systems with a type I_n factor as algebra of observables, including I_infinity. Afterwards, we give a proof of the Kochen-Specker theorem for an arbitrary von Neumann algebra R without summands of types I_1 and I_2, using a known result on two-valued measures on the projection lattice P(R). Some connections with presheaf formulations as proposed by Isham and Butterfield are made.
Das größte Problem bei der Erstellung von MR-Anwendungen besteht darin, dass sie meistens durch Programmierung erstellt werden. Daher muss ein Autor spezielles Fachwissen über MR-Technologie und zumindest allgemeine Programmierkenntnisse mitbringen, um eine MR-Anwendung erstellen zu können. Dieser Erstellungsprozess soll mit Hilfe von MR-Autorensystemen, die derzeit auf dem Markt existieren und in der Forschung entwickelt werden, vereinfacht werden. Dies war ein Grund, warum diese Arbeit sich zum Ziel erklärte, zu überprüfen, inwieweit die Erstellung von MRAnwendungen durch Einsatz von MR-Autorensystemen vereinfacht wird. Ein weiteres Hauptziel war die Erstellung einer repräsentativen MR-Anwendung, die in dieser Arbeit als MR-Referenzanwendung bezeichnet wird. Sie sollte vor allem bei weiteren Entwicklungen als Vorlage dienen können und auf Basis von standardisierten Vorgehensmodellen, wie das Wasserfallmodell, erstellt werden. Ganz wichtig war es noch im Rahmen dieser Arbeit zu bestätigen, dass standardisierte Vorgehensmodelle auf MR-Anwendungen übertragbar sind. Um diese Ziele zu erreichen, sind in dieser Arbeit viele Schritte befolgt worden, die jeweils als Teilziele betrachtet werden können. Die MR-Referenzanwendung , die im Rahmen dieser Arbeit erstellt wurde, sollte mit Hilfe eines MR-Autorensystems umgesetzt werden. Um das richtige MRAutorensystem dafür auszusuchen, wurden im Rahmen einer Analyse fakultative und obligatorische Anforderungen an MR-Autorensysteme definiert, worin auch Funktionen identifiziert wurden, die ein solches System bereitstellen sollte. Das Anbieten einer Vorschau ist ein Beispiel für diese Funktionen, die bei der Erstellung von MR-Anwendungen eine essentielle Rolle spielen können. Die obligatorischen Anforderungen sind welche, die jedes Softwaresystem erfüllen soll, während die fakultativen das Ziel der Verbesserung von Autorensystemen verfolgen. Mit Hilfe der Analyse wurde ein Vergleich zwischen bekannten MR-Autorensystemen gezogen, dessen Ergebnis AMIRE als ein für die Ziele dieser Arbeit geeignetes MR-Autorensystem identifizierte. Für die MR-Referenzanwendung , die ähnliche Funktionen aufweisen sollte wie andere typische MR-Anwendungen wurden Funktionen, Anwendungsfälle und Design der Oberfläche spezifiziert. Diese Spezifikation wurde unabhängig von dem ausgesuchten Autorensystem durchgeführt, um darin analog zur Software-Technik das Augenmerk auf fachliche und nicht auf technische Aspekte zu legen. Um ans Ziel zu gelangen, wurde die MR-Referenzanwendung durch AMIRE realisiert, jedoch musste zuvor ihre Spezifikation auf dieses MR-Autorensystem überführt werden. Bei der Überführung wurde die Realisierung aus technischer Sicht betrachtet, das heißt es wurden verschiedene Vorbereitungen, wie die Auswahl der benötigten Komponenten, die Planung der Anwendungslogik und die Aufteilung der Anwendung in verschiedenen Zuständen, durchgeführt. Nach der gelungenen Realisierung und beispielhaften Dokumentation der MRReferenzanwendung konnte die Arbeit bewertet werden, worin die erzielten Resultate den Zielen der Arbeit gegenübergestellt wurden. Die Ergebnisse bestätigen, dass mit AMIRE die Entwicklung einer MR-Anwendung ohne Spezialwissen möglich ist und dass diese Arbeit alle ihrer Ziele innerhalb des festgelegten Zeitrahmens erreicht hat.
Das Ziel dieser Arbeit war die Entwicklung einer haptischen 3D-Benutzungsoberfläche für die Virtual-Glove-Box. Eine „Glove Box“ ist ein Apparat, in welchem chemische Versuche in abgeschlossener Atmosphäre durchgeführt werden können. Die „Virtual Glove Box“ setzt dieses Konzept für Virtual Reality Anwendungen um. Die Oberflächenelemente waren als wiederverwendbare Komponenten auszuführen. Die Bedienung erfolgt unter Einsatz zweier virtueller Hände mit an den Händen getragenen Exoskeletten zur Vermittlung des haptischen Feedbacks. Es enstand EASY, ein System zur einfachen und individuellen Gestaltung von Benutzungsberflächenelementen. Diese können in ein bereitgestelltes Framework einfügt und ohne Wissen über die zugrundeliegende Hardware benutzt werden. Die Entwicklung konnte nicht abgeschlossen werden, da die zur Verfügung stehenden Hardware-Komponenten nicht in Betrieb zu nehmen waren.
This paper has shown that some of the principal arguments against shareholder voice are unfounded. It has shown that shareholders do own corporations, and that the nature of their property interest is structured to meet the needs of the relationships found in stock corporations. The paper has explained that fiduciary and other duties restrain the actions of shareholders just as they do those of management, and that critics cannot reasonably expect court-imposed fiduciary duties to extend beyond the actual powers of shareholders. It has also illustrated how, although corporate statutes give shareholders complete power to structure governance as they will, the default governance structures of U.S. corporations leaves shareholders almost powerless to initiate any sort of action, and the interaction between state and federal law makes it almost impossible for shareholders to elect directors of their choice. Lastly, the paper has recalled how the percentage of U.S. corporate equities owned by institutional investors has increased dramatically in recent decades, and it has outlined some of the major developments in shareholder rights that followed this increase. I hope that this paper deflated some of the strong rhetoric used against shareholder voice by contrasting rhetoric to law, and that it illustrated why the picture of weak owners painted in the early 20th century should be updated to new circumstances, which will help avoid projecting an old description as a current normative model that perpetuates the inevitability of "managerialsm", perhaps better known as "dirigisme".
Diese Arbeit befasst sich mit der Zerlegung von Irrfahrten und Lévy Prozessen an ihrem Minimum. Bis auf rudimentäre Vorkenntnisse der höheren Stochastik und einige wenige aber wichtige Sätze stellt die Arbeit alle notwendigen Begriffe und Sätze zur Verfügung, die für das Verständnis und die Beweise benötigt werden. Diese bewusste Entscheidung zur Ausführlichkeit auch bei grundlegenden Dingen hat zwei Hintergründe: Zum einen bleibt die Arbeit damit auch für Leser mit geringen Vorkenntnissen interessant, und zum anderen entsteht so keine lange und unübersichtliche Kette von Verweisen und Zitaten, die das Verständnis des dargestellten Themas erschwert und die logischen Schlüsse nur noch von Spezialisten vollständig nachvollzogen werden können. Ein weiterer Nebeneffekt ist die Tatsache, dass Verwirrungen aufgrund unterschiedlicher Interpretationen eines Begriffs vermieden werden. Das weitere Vorwort teilt sich in zwei Abschnitte; zum einen in den Abschnitt der Irrfahrten und zum anderen in den Abschnitt der Lévy-Prozesse. Diese Einteilung spiegelt auch die Strukturierung der Arbeit selber wieder; ein Blick in das Inhaltsverzeichnis verrät, dass zuerst Irrfahrten und danach Lévy Prozesse behandelt werden.
In dieser Arbeit wurde die Produktion von Omega und Anti-Omega Hyperonen in zentralen Pb+Pb-Kollisionen bei 40 A GeV am CERN SPS mit dem NA49 Experiment untersucht. Der in dieser Arbeit verwendete Datensatz wurde während einer 4 wöchigen Strahlzeit 1999 aufgenommen. Dabei wurden 579446 Zentrale (7.2 % des totalen Wirkungsquerschnitts) Ereignisse, bei zwei verschiedenen Polarit aten (std+ und std-), aufgezeichnet. Die Omega Produktion bei 40 A GeV wird mit Messungen bei anderen Energien verglichen, um damit die Energieabhangigkeit der Omega Produktion zu untersuchen. Das Experiment NA49 erlaubt genaue Messungen in einem weiten Akzeptanzbereich. Man misst die Zerfallstochter des Omegas und die Zerfallstochter des Omegas mit hochauflösenden TPCs. Mehrfach seltsame Teilchen (Theta, Omega) werden durch ihre Zerfallstopologie identifiziert. Es wurden verschieden Qualitatskriterien verwendet, um den kombinatorischen Untergrund zu reduzieren. NA49 hat nur eine endliche geometrische Akzeptanz und kann deshalb nicht den ganzen Phasenraum abdecken. Außerdem wurden verschiedene Qualitatskriterien verwendet, um ein akzeptables Signal zu Untergrund Verhaltnis zu erhalten. Da es wegen der Akzeptanz und der Qualitatskriterien zu Verlusten kommt, muss man darauf korrigieren. Dies macht man mittels einer Simulation, in der man Omega Hyperonen simuliert. Die Omega Hyperonen werden uber drei Rapiditatseinheiten um den Bereich zentraler Rapiditat und mit Transversalimpulsen von 0.9 bis 2.4 GeV/c gemessen. Es wurde der Temperaturparameter des Omega Hyperons bei 40 A GeV bestimmt. Im Rahmen der Fehler ist der Temperaturparameter der 40 A GeV dem der 158 A GeV gleich. Betrachtet man den Temperaturparameter der Omegas als Funktion der Schwerpunktenergie, gibt es einen Anstieg des Temperaturparameters von SPS- zu RHIC-Energien. Es wurden jeweils die Multiplizitaten bei mittlerer Rapiditat für Omega und Anti-Omega bestimmt. Die Multiplizität vom Omega betragt 0.068 +- 0.020 (stat.) +- 0.019 (sys.) und vom Anti-Omega 0.027 +- 0.008 (stat.) +- 0.007 (sys.). Die Multiplizitaten bei mittlerer Rapiditat steigen für Omega und Anti-Omega mit der Schwerpunktenergie von SPS- zu RHIC-Energien. Die Ergebnisse stimmen mit den Messungen der NA57 Kollaboration überein. Bei 40 A GeV wurde erstmals eine Rapiditatsverteilung gemessen. Die daraus resultierende totale Multiplizitat fur Omega + Anti-Omega betragt 0.20 +- 0.03 (stat.) +- 0.04 (sys.). Mit steigender Schwerpunktenergie steigt die totale Multiplizität und die Rapiditätsverteilung wird breiter. Um den systematischen Fehler zu bestimmen, wurde eine Stabilität-Analyse des mt-Spektrums und der Rapiditatsverteilung durchgefuhrt. Der systematische Fehler der mt-Spektren betragt 18 % und der totalen Multiplizitat 21 %. Schaut man sich die Anregungsfunktion der Omega und Anti-Omega als Funktion der Schwerpunktenergie an, erkennt man, dass es eine leichte Energieabhängigkeit beim Anti-Omega / Pi-Minus ....
Die Arbeiten von Alexander Michailowitsch Lyapunov (1857-1918) waren der Anfangspunkt intensiver Erforschung des Stabilitätsverhaltens von Differentialgleichungen. In der vorliegenden Arbeit sollen Lyapunovfunktionen auf Zeitskalen in Bezug auf das Stabilitätsverhalten des homogenen linearen Systems x-delta = A(t)x untersucht werden.
Die linksventrikuläre Hypertrophie ist einer der stärksten Prädiktoren für die spätere Abnahme der Blutauswurfleistung des Herzens mit einer Gefährdung der Organdurchblutung und drohendem Kreislaufversagen, einem klinischem Syndrom, welches als Herzinsuffizienz bezeichnet wird. Die Herzhypertrophie ist eine Folge vieler verschiedener Herzerkrankungen wie koronarer Herzkrankheit, dilatativer Kardiomyopathie oder Hypertonie. Ein besseres Verständnis dieser Entwicklung auf molekularer Ebene könnte dazu beitragen, mit neu zu entwickelnden Medikamenten gezielt in diese Prozesse eingreifen zu können, sie abzuschwächen, zu verhindern oder gar rückgängig zu machen. Das Ziel dieser Arbeit war, die molekularen Ursachen der Herzhypertrophieentwicklung durch eine globale Genexpressionsanalyse zweier Hypertrophiemodelle näher zu untersuchen und dabei neue Hypertrophiemarker zu identifizieren. Dazu wurde sowohl aus Herzproben PKBgamma1-überexprimierender transgener Mäuse, welche eine massive Herzhypertrophie entwickeln, als auch aus alpha1-adrenerg stimulierten neonatalen Rattenkardiomyozyten RNA isoliert und mit dieser cDNA-Micro-arrays hybridisiert. Die Auswertung der differentiell exprimierten Gene in beiden Modellen ergab keine eindeutigen Hinweise auf universelle Faktoren, die für die Hypertrophieentwicklung verantwortlich gemacht werden könnten. Bei näheren Untersuchungen zeigte sich jedoch, dass die Mehrzahl der regulierten Gene einen Versuch der Kardiomyozyten repräsentiert, die Hypertrophieentwicklung zu kompensieren. Im Modell der PKBgamma1-überexprimierenden Mäuse konnte durch eine „in silico“-Promotoranalyse ein möglicher Einfluss von Transkriptionsfaktoren der Forkhead-Klasse auf die differentielle Expression vieler regulierter Gene gefunden werden. Unter Zuhilfenahme eines Forkhead-Reporter-Systems konnte in verschiedenen Zellkulturmodellen ein funktioneller Zusammenhang zwischen dem konstitutiv-aktiven Transgen und eben diesen Transkriptionsfaktoren gezeigt werden. Darüber hinaus gelang es, anhand zweier Reportersysteme für die wichtigen Hypertrophiemarker ANF und BNP zu zeigen, dass sich diese beiden Gene durch die Koexpression eines Forkhead-Transkriptions-faktors induzieren lassen. Im Modell der alpha1-adrenerg stimulierten neonatalen Rattenkardiomyozyten gelang es, durch eine „in silico“-Promotoranalyse cAMP-abhängige Transkriptionsfaktoren sowie Faktoren der EGR-Klasse als mögliche Auslöser der beobachteten Genregulation zu identifizieren. Dieses Ergebnis passte sehr gut zu den beobachteten transkriptionellen Veränderungen, da sowohl die Transkriptionsfaktoren selbst, als auch viele in den cAMP-Stoffwechsel involvierte Transkripte sehr stark induziert waren. In beiden untersuchten Modellen stimmten nur wenige differentiell exprimierte Transkripte überein und diese bestanden vorwiegend aus den klassischen Hypertrophiemarkern. Als möglicher neuer Hypertrophiemarker wurde das „Cardiac Adriamycin Responsive Protein“ (CARP) identifiziert, welches in beiden Modellen deutlich induziert war. In Kombination mit der Beobachtung, dass viele der jeweils regulierten Gene mit einer antihypertrophen Wirkung in Verbindung gebracht werden, legt den Schluss nahe, dass die transkriptionellen Veränderungen den Versuch der Zellen widerspiegeln, der Hypertrophie entgegenzuwirken, und dass die hypertrophieauslösende Wirkung durch andere, nicht-transkriptionelle Steuerungsmechanismen der Zelle vermittelt wird. Frühere Arbeiten, welche die transkriptionellen Veränderungen in anderen Hypertrophiemodellen untersuchten, sowie neuere Hinweise aus der Literatur und weitere in der Abteilung durchgeführte Untersuchungen lassen darauf schließen, dass die Hypertrophieentwicklung eher auf translationaler Ebene reguliert wird. Unterstützt wird dies durch die Tatsache, dass PKBgamma1-überexprimierende Mäuse die größte jemals beobachtete Herzhypertrophie entwickeln und der PKB/GSK-3beta-Signalweg bekanntermaßen translationelle Vorgänge in der Zelle steuert. Weitere Arbeiten in dieser Richtung könnten somit neue, vielversprechende Therapieansätze eröffnen.
Die Frage, ob das Klima extremer wird, beschäftigt Wissenschaft und Öffentlichkeit mit zunehmender Intensität. Daher ist hier eine extremwertstatistische Untersuchung hinsichtlich Niederschlag und Temperatur durchgeführt worden. Dabei werden, entsprechend IPCCEmpfehlungen, für die untersuchten Zeitreihen obere und untere Schwellenwerte festgelegt. Durch Auszählen kann dann ermittelt werden, wie oft die entsprechende Schranke über- oder unterschritten wurde (relativer Extremwert). Das Verhältnis der Anzahl der relativen Extremwerte zu den Gesamtwerten nennt man empirische Extremwerthäufigkeit. Darüber hinaus wurden Häufigkeitsverteilungen an die Datensätze angepasst, aus denen vorher der Jahresgang eliminiert wurde. Über diese Häufigkeitsverteilungen bestimmt man die theoretische Über- oder Unterschreitungswahrscheinlichkeit der jeweiligen Schranke, und vergleicht diese mit der empirischen. Diese Daten bieten auch die Möglichkeit, weitere wahrscheinlichkeitstheoretische Größen (Risiko, Wartezeitverteilung, Wiederkehrzeit) zu bestimmen. Das Verfahren wird auf 78 100-jährige Zeitreihen des Niederschlags und 10 100-jährige Zeitreihen der Temperatur in Deutschland angewendet. Dabei ist zu beachten, dass eine Übereinstimmung von empirischen und theoretischen Ergebnissen nur im statistischen Mittel zu erwarten ist. Die Untersuchungen zeigen, dass die ersten 10 bis 15 Jahre des letzten Jahrhunderts, sowohl bei den Niederschlägen als auch bei der Temperatur, nicht so extrem gewesen sind wie der Rest des Jahrhunderts. Bei den Niederschlagsdaten zeigt sich darüber hinaus um die Jahrhundertmitte ein etwa 10-jähriger Zeitraum mit hoher Niederschlagsvariabilität. Für die Abschätzung der Wahrscheinlichkeit des Überschreitens von Schranken bei Niederschlagsdaten ist die angepasste Gumbelverteilung am besten geeignet. Der Unterschied zu den anderen angepassten Verteilungen ist um so klarer, je höher die Schranke gewählt wird. Für die Abschätzung der Wahrscheinlichkeit des Unterschreitens von Schranken bei Temperaturdaten ist die angepasste Weibullverteilung am besten geeignet. Kein klares Bild ergibt sich bei den Kombinationen untere Schranke und Niederschlagsdaten sowie obere Schranke und Temperaturdaten. Die Abschätzung der Eintrittswahrscheinlichkeit und damit verbunden die Bestimmung der Wiederkehrzeit und des Risikos ist in allen Fällen um so besser, je geringer der Jahresgang der Variabilität der untersuchten Größe ist. Beim Trend der Wiederkehrzeit zeigt sich bei den Niederschlagsdaten und der unteren Schranke im äußersten Westen Deutschlands ein Rückgang trockener Ereignisse. Ansonsten erkennt man nur schwache Änderungen. Für obere Schranken zeigt sich im Westen Deutschlands ein Rückgang der Wiederkehrzeit, also ein Trend zu häufigeren extremen Niederschlägen, mit einem Maximum im östlichen Nordrhein-Westfalen. Im Osten dagegen ermittelt man einen Rückgang extremer Niederschläge und damit einen Trend zu trockenerer Witterung, am stärksten ausgeprägt im westlichen Erzgebirge. Für die Temperaturdaten zeigt sich in fast ganz Deutschland für untere Schranken ein Anstieg der Wiederkehrzeit. Extrem niedrige Temperaturen treten also tendenziell seltener auf. Die Ausnahme bilden hier nur, je nach zugrunde liegender Verteilung, der (äußerste) Norden und Osten Deutschlands. Die gleiche geographische Unterteilung, jedoch mit umgekehrtem Trend, zeigt sich bei den oberen Schranken. Extrem warme Ereignisse treten, mit Ausnahme des Nordostens, tendenziell häufiger auf. Die stärkste Zunahme im Trend der warmen Ereignisse zeigt sich dabei im Südwesten Deutschlands.
In dieser Arbeit wurde die transversale Flußgeschwindigkeit einer Schwerionenreaktion direkt bestimmt. Dazu modifizierte man den herkömmlichen Yano-Koonin-Podgoretskii Formalismus, der zur Bestimmung der longitudinalen Expansion bereits erfolgreich eingesetzt wurde. Die transversale Expansion wurde in verschiedenen kinematischen Bereichen bestimmt. Einzelne Quellabschnitte erreichen Geschwindigkeiten bis zu b = 0.8. Das entspricht den Werten, die man durch indirekte Verfahren für den transversalen Fluß bestimmte. In den Intervallen mittlerer longitudinaler Paarrapidität entspricht die Yano-Koonin-Podgoretskii Rapidität der mittleren Paarrapidität. Dieses Verhalten erwartet man von einer Quelle, die ein boostinvariantes Expansionsverhalten besitzt. Die HBT-Radien, die im Zuge der Analyse der Korrelationsfunktion bestimmt wurden, entsprechen in der Größenordnung denen, die bei der Untersuchung der longitudinalen Expansion bestimmt wurden. Lediglich der Parameter R0 zeigt ein abweichendes Verhalten, indem er für geringere Rapiditäten kleinere Werte annimmt, dieser Parameter ist jedoch mit einem großen Fehler belastet. Die Konsistenz des Formalismus bezüglich verschieden gewählter transversaler Richtungen wurde überprüft. Trotz erheblicher Unterschiede in den transversalen Rapiditätsverteilungen wurden in vier verschiedenen Richtungen vergleichbare Resultate gemessen. Um einen größeren Impulsbereich abzudecken wurden die Messungen in zwei verschiedenen Magnetfeldkonfigurationen durchgeführt, in den Bereichen wo die Parameter der Korrelationsfunktion im beiden bestimmt werden konnten, ergaben sich vergleichbare Werte.
In dieser Arbeit wurde die Pionenproduktion in C + C und Si + Si - Kollisionen bei 40A GeV und 158A GeV untersucht. Dazu wurden zwei vollkommen unterschiedliche Methoden, die dE/dx- Teilchenidentifizierung und die h- - Methode, bei der der Anteil von Nicht- Pionen simuliert wird, verwendet. Die Ergebnisse beider Methoden stimmen gut überein, die Differenz fließt in den systematischen Fehler ein. Für die Bestimmung der totalen Multiplizitäten und mittleren transversalen Massen wurde die h- - Methode aufgrund ihrer größeren Akzeptanz gewählt. Zusätzlich wurde für 40A GeV C + C eine zentralitätsabhängige Analyse der Pionenmultiplizitäten vorgenommen. Die Ergebnisse dieser Analyse sollten jedoch als vorläufig angesehen werden. Die Ergebnisse meiner Analyse wurden mit der von C. Höhne [14] bei 158A GeV verglichen, sie stimmen innerhalb der Fehler überein. Es wurden Modelle zur Simulation von Kollisionen (UrQMD, Venus) vorgestellt und angewandt, um die experimentellen Ergebnisse mit den Vorhersagen der Simulationen zu vergleichen. Ein weiteres Modell (Statistical Model of the Early Stage) wurde vorgestellt, welches die qualitative und anschauliche Interpretation der Daten erlaubt. Die Ergebnisse wurden als Energie- und Systemgrößenabhängigkeitsplots zusammen mit anderen NA49- Ergebnissen, Ergebnissen anderer Experimente und Simulationsvorhersagen gezeigt und diskutiert. Der Übergang von der Unterdrückung der Pionenproduktion in Pb+Pb - Kollisionen relativ zu p+p zu einer Erhöhung der Pionenproduktion bei niedrigen SPS-Energien wurde auch bei kleinen Systemen, C + C und Si + Si , beobachtet. Eine Interpretation der Pionenmultiplizitäten mit den Statistical Model of the Early Stage legt die Vermutung nahe, dass bereits bei 40A GeV C + C - Kollisionen Quark- Gluon- Plasma gebildet wird. Diese Vermutung muss allerdings durch die Betrachtung weiterer Observabler noch bestätigt werden.
Die konventionelle Extremwertstatistik die sich an der Über- bzw. Unterschreitungshäufigkeit bestimmter Schwellenwerte orientiert, beinhaltet den Nachteil, daß Änderungen der Parameter der Häufigkeitsverteilung die Extremwertwahrscheinlichkeit beeinflussen. So kann allein das Vorhandensein eines Trends für derartige Veränderungen verantwortlich sein. Die hier gewählte Methodik vermeidet diesen Nachteil, indem sie eine Zerlegung der betrachteten Zeitreihen in einen strukturierten und einen unstrukturierten Anteil durchführt. Dabei setzt sich der strukturierte Anteil aus einer Trend-, Saison- und glatten Komponente zusammen. Aus der Summe dieser in der Zeitreihe signifikant enthaltenen Komponenten läßt sich die Eintrittswahrscheinlichkeit von Extremwerten ableiten. Ähnliches gilt für den unstrukturierten Anteil insbesondere für die Varianz des Residuums. Das Residuum kann aber auch Werte enthalten, die nicht zu ihrer ansonsten angepaßten Häufigkeitsverteilung passen. Solche Werte werden als Extremereignisse bezeichnet und sind von den Extremwerten zu unterschieden. In der vorliegenden Arbeit werden nun, getrennt voneinander, durch Änderungen in den Parametern der Häufigkeitsverteilung hervorgerufene Variationen der Extremwertwahrscheinlichkeit als auch parameterunabhängige Extremereignisse der bodennahen Lufttemperatur betrachtet. Als Datenbasis dienten 41, wahrscheinlich homogene, europäische Stationszeitreihen von Monatsmitteltemperaturen, die den Zeitraum von 1871 bis 1990 abdecken. In den untersuchten Temperaturzeitreihen wurde an 37 von 41 Stationen ein positiver Trend detektiert, woraus ein Anstieg der Extremwertwahrscheinlichkeit mit der Zeit resultiert. Die glatten, niederfrequenten Schwingungen wirken sich in den meisten Fällen um 1890 und 1975 negativ und um 1871, 1940 und 1990 positiv auf die Extremwertwahrscheinlich keit aus. Desweiteren treten Änderungen in der Saisonfigur bezüglich der Amplitude und der Phasenlage auf. Detektierte Zunahmen in der Amplitude des Jahresgangs führen zu einer positiven Änderung der Extremwertwahrscheinlichkeit. Signifikante Änderungen in der Phasenlage der Saisonfigur erzeugen in den Anomaliezeitreihen einen saisonal unterschiedlichen Trend, dessen Amplitude, in den betrachteten Fällen, in der Größenordnung der Trendkomponente liegt. Saisonal unterschiedliche Trends beeinflussen saisonal unterschiedlich die Wahrscheinlichkeit für das Eintreten von Extremwerten. Die Residuen von fünf Temperaturzeitreihen weisen signifikante Varianzinstationaritäten auf, wobei in nur einem Fall die Varianz mit der Zeit zunimmt und somit einen Anstieg der Extremwertwahrscheinlichkeit erzeugt. Extremereignisse treten vorwiegend in Form besonders kalter Winter auf und können wahrscheinlich als Realisation eines Poisson-Prozesses interpretiert werden. Sie erscheinen zufällig über den Beobachtungszeitraum verteilt mit einer mittleren Wiederkehrzeit von mehr als 10 Jahren.
Hauptanliegen dieser Arbeit ist es, statistische Zusammenhänge zwischen der Nord-Atlantik-Oszillation (NAO) und der bodennahen Lufttemperatur in Europa zu untersuchen. Dazu wurden zunächst die Korrelationskoeffizienten nach Pearson, Kendall, Spearman und die Transinformation berechnet, sowie die zugehörigen Signifikanzen abgeschätzt. Diese Analysen wurden auch zeitlich gleitend durchgeführt, um mögliche Veränderungen im Einfluß der NAO auf die Temperatur nachweisen zu können. Weiterhin wurde mit Hilfe der selektiven Zeitreihenzerlegung nach signifikanten, charakteristischen zeitlichen Strukturen sowohl in der NAO als auch in den Zeitreihen der Lufttemperatur gesucht: Trend, glatte, saisonale, harmonische Komponente und Rauschen. Zweck dieser Untersuchung war es, gegebenenfalls gleichartige zeitliche Strukturen in der NAO und Temperatur zu finden, um den Zusammenhang zwischen NAO und Temperatur näher beschreiben zu können. Die Untersuchungen wurden fur den Zeitraum von 1871 bis 1990 in monatlicher, saisonaler und jährlicher Auflösung auf Basis von Zeitreihen der mittleren monatlichen Lufttemperatur 41 europäischer WMO- (World Meteorological Organization) Stationen, sowie zwei unterschiedlich definierten NAO-Index-Zeitreihen, die ebenfalls in Monatsmitteln vorlagen, durchgeführt. Ergänzend wurde auf einen globalen Datensatz von Temperaturflächenmitteln zuruckgegriffen, um auch aus globaler Sicht Aussagen uber Zusammenhänge zwischen NAO und bodennaher Lufttemperatur zu erhalten. Die Untersuchungen bezogen sich hierbei auf das Zeitintervall von 1892 bis 1994. Der Zusammenhang zwischen den in Europa beobachteten Temperaturen und der NAO ist linearer Natur und vor allem in den Wintermonaten ausgeprägt. Ein maximaler Zusammenhang findet sich im nordeuropäischen Winter mit einer erklärten Varianz um 40%. Ein Vergleich von extrem kalten Wintern mit der NAO hat gezeigt, daß extreme Kältereignisse nur bei einer schwachen NAO (negativer NAO-Index) auftreten. Im Jahresgang findet eine Verschiebung des durch die NAO beeinflußten Gebietes in Ost-West-Richtung statt. Das Minimum des Zusammenhanges besteht im Sommer bei maximaler Ost-Verschiebung. Weiterhin ist der Einfluß der NAO auf die Temperatur stark zonal ausgeprägt. Es besteht ein Nord-Süd-Gefälle von positiver Korrelation im Norden zu negativer im Süden Europas. Zu diesem Ergebnis führte sowohl die Analyse der Europadaten wie des globalen Datensatzes. Der Einfluß der NAO auf die Temperatur ist nicht stationär; seit Beginn dieses Jahrhunderts hat sich dieser zunehmend ostwärts verlagert. Ein signifikanter Trend konnte in den Indexreihen der NAO aber nicht nachgewiesen werden. Signifikante zeitliche Strukturen der NAO konnten im Bereich der niederfrequenten und auch hochfrequenten Variabilität gefunden werden. Die Winter-NAO (mittlerer Indexwert von Dezember bis Februar) zeigt insbesondere einen in den Wintertemperaturen (Temperaturmittel der Monate Dezember bis Februar) gleichartigen niederfrequenten Verlauf, der durch Polynome vierter und fünfter Ordnung beschrieben werden kann. Im Bereich der hochfrequenten Variabilität konnte mit Ausnahme der Sommer- und Herbstdaten in allen Indexreihen der NAO eine harmonische Schwingung mit einer Periode von etwa 7 Jahren detektiert werden. Die gleiche Schwingung findet sich in den Wintertemperaturen West- und Mitteleuropas.
Zunächst wurde die Notwendigkeit von Schemaänderungen erläutert und verschiedene Ansätze aus der Literatur beschrieben, Schemaänderungen in laufenden Systeme so durchzuführen, dass eine möglichst einfache und automatisch stattfindende Konvertierung der betroffenen Datenobjekte erfolgen kann. Beim Vergleich erweist sich das Konzept der Schemaversionierung als die leistungsfähigste Lösung. Der Grundgedanke der Schemaversionierung ist, durch jede Schemaänderung eine neue Schemaversion zu erstellen, wobei die alte Schemaversion weiterhin benutzt werden kann. Die Datenobjekte liegen ebenfalls in mehreren Versionen vor und die Schemaänderung wird auf Objektebene nachempfunden, indem Datenänderungen propagiert, d.h. die Daten automatisch konvertiert werden. Für die Propagation werden die Beziehungen zwischen den Schemaversionen ausgenutzt. Mit dem Konzept der Schemaversionierung ist es möglich, mehrere Versionen eines Schemas parallel zu benutzen und nur die auf die Datenbank zugreifenden Applikationen anzupassen, die auch wirklich von der Schemaänderung betroffen sind. Diese Diplomarbeit ist Teil des COAST-Projekts, das die Schemaversionierung als Prototyp umsetzt. In COAST existierte vor dieser Diplomarbeit nur die Möglichkeit, einfache Schemaanderungen durchzuführen. Neu wurden komplexe Schemaanderungsoperationen eingeführt und das Konzept der Propagation entsprechend erweitert. Komplexe Schemaänderungen unterscheiden sich von einfachen Schemaänderungen dadurch, dass sie Attribute aus mehreren Quellklassen in einer Zielklasse (oder andersherum) vereinen können. Die bereits in kurz angeschnittenen Default-Konvertierungsfunktionen wurden genauer untersucht und konkret eingeführt. Es wurden mehrere typische Schemaänderungsoperationen vorgestellt und darauf untersucht, ob sie mit den bisherigen einfachen Schemaänderungsoperationen durchführbar waren oder ob dazu komplexe Schemaänderungsoperationen nötig sind. Außerdem wurde analysiert, ob das System für die entsprechenden Operationen automatisch sinnvolle Defaultkonvertierungsoperationen generieren kann oder ob ein Eingriff des Schemaentwicklers notwendig ist. Dazu wurden sie in eine von vier Kategorien eingeteilt, die aussagen, ob einfache oder komplexe Schemaänderungsoperationen nötig sind und ob sinnvolle Default-Konvertierungsfunktionen ohne Eingriff des Schemaentwicklers erzeugt werden können oder nicht. Zu jeder der aufgezahlten Schemaänderungsoperationen wurde die entsprechende vom System erzeugte Default-Konvertierungsfunktion aufgeführt und im Falle, dass sie der Schemaentwickler uberprüfen muss, angegeben, wo noch potenzieller Bedarf für manuelle Änderungen vorliegt. Die Auswirkungen der Einführung von komplexen Schemaänderungsoperationen auf die Propagation wurde im nächsten Kapitel analysiert und dabei festgestellt, dass das bisherige Konzept der Propagationskanten zwischen je zwei Objektversionen desselben Objekts nicht mehr ausreicht. Entsprechend wurde das neue Konzept von kombinierten Propagationskanten entwickelt, das Kanten zwischen mehr als nur zwei Objektversionen zulässt. Dazu wurden verschiedene Lösungsmöglichkeiten miteinander verglichen. Weiter wurden verschiedene Ansätze fur die Darstellung und Speicherung von Konvertierungsfunktionen vorgestellt und entschieden, die Konvertierungsfunktionen konkret in textueller Darstellung in den Propagationskanten zu speichern. Fur die Spezifizierung der gewünschten Konvertierungen bei der Propagation wurde eine Konvertierungssprache entwickelt und nach verschiedenen Gesichtspunkten konzipiert. Diese Gesichtspunkte umfassen sowohl den nötigen Funktionsumfang der Sprache wie auch entwurfstechnische Aspekte. Sämtliche Befehle der entwickelten Sprache wurden detailliert vorgestellt und abschließend die Sprache in BNF (Backus-Naur-Form) präsentiert. COAST ist inzwischen als Prototyp implementiert und wurde u.a. auf der CeBIT '99 vorgestellt (s. [Lau99b] und [LDHA99]). Nach einer Beschreibung der Funktionsweise und des Aufbaus von COAST und insbesondere des Propagationsmanagers wurden einige Implementierungsdetails vorgestellt und verschiedene Betrachtungen zur moglichen Optimierung beschrieben. Die Ziele der Diplomarbeit wurden damit erreicht: Die Schemaevolution kann mit den Vorzügen der Versionierung durchgeführt werden. Komplexe Schemaänderungen sind nun möglich und wurden ins Modell integriert. Die Propagation wurde entsprechend erweitert und eine Sprache zur Spezifikation der Propagation entwickelt.
This paper proves correctness of Nöcker's method of strictness analysis, implemented in the Clean compiler, which is an effective way for strictness analysis in lazy functional languages based on their operational semantics. We improve upon the work of Clark, Hankin and Hunt did on the correctness of the abstract reduction rules. Our method fully considers the cycle detection rules, which are the main strength of Nöcker's strictness analysis. Our algorithm SAL is a reformulation of Nöcker's strictness analysis algorithm in a higher-order call-by-need lambda-calculus with case, constructors, letrec, and seq, extended by set constants like Top or Inf, denoting sets of expressions. It is also possible to define new set constants by recursive equations with a greatest fixpoint semantics. The operational semantics is a small-step semantics. Equality of expressions is defined by a contextual semantics that observes termination of expressions. Basically, SAL is a non-termination checker. The proof of its correctness and hence of Nöcker's strictness analysis is based mainly on an exact analysis of the lengths of normal order reduction sequences. The main measure being the number of 'essential' reductions in a normal order reduction sequence. Our tools and results provide new insights into call-by-need lambda-calculi, the role of sharing in functional programming languages, and into strictness analysis in general. The correctness result provides a foundation for Nöcker's strictness analysis in Clean, and also for its use in Haskell.
Syndicated loans and the number of lending relationships have raised growing attention. All other terms being equal (e.g. seniority), syndicated loans provide larger payments (in basis points) to lenders funding larger amounts. The paper explores empirically the motivation for such a price discrimination on sovereign syndicated loans in the period 1990-1997. First evidence suggests larger premia are associated with renegotiation prospects. This is consistent with the hypothesis that price discrimination is aimed at reducing the number of lenders and thus the expected renegotiation costs. However, larger payment discrimination is also associated with more targeted market segments and with larger loans, thus minimising borrowing costs and/or attempting to widen the circle of lending relationships in order to successfully raise the requested amount. JEL Classification: F34, G21, G33 This version: June, 2002. Later version (october 2003) with the title: "Why Borrowers Pay Premiums to Larger Lenders: Empirical Evidence from Sovereign Syndicated Loans" : http://publikationen.ub.uni-frankfurt.de/volltexte/2005/992/
We use consumer price data for 205 cities/regions in 21 countries to study deviations from the law-of-one-price before, during and after the major currency crises of the 1990s. We combine data from industrialised nations in North America (Unites States, Canada, Mexico), Europe (Germany, Italy, Spain and Portugal) and Asia (Japan, Korea, New Zealand, Australia) with corresponding data from emerging market economies in the South America (Argentine, Bolivia, Brazil, Columbia) and Asia (India, Indonesia, Malaysia, Philippines, Taiwan, Thailand). We confirm previous results that both distance and border explain a significant amount of relative price variation across different locations. We also find that currency attacks had major disintegration effects by significantly increasing these border effects, and by raising within country relative price dispersion in emerging market economies. These effects are found to be quite persistent since relative price volatility across emerging markets today is still significantly larger than a decade ago. JEL classification: F40, F41
We use consumer price data for 81 European cities (in Germany, Austria, Switzerland, Italy, Spain and Portugal) to study deviations from the law-of-one-price before and during the European Economic and Monetary Union (EMU) by analysing both aggregate and disaggregate CPI data for 7 categories of goods we find that the distance between cities explains a significant amount of the variation in the prices of similar goods in different locations. We also find that the variation of the relative price is much higher for two cities located in different countries than for two equidistant cities in the same country. Under EMU, the elimination of nominal exchange rate volatility has largely reduced these border effects, but distance and border still matter for intra-European relative price volatility. JEL classification: F40, F41
This paper analyzes a comprehensive data set of 108 non venture-backed, 58 venture-backed and 33 bridge financed companies going public at Germany s Neuer Markt between March 1997 and March 2000. I examine whether these three types of issues differ with regard to issuer characteristics, balance sheet data or offering characteristics. Moreover, this empirical study contributes to the underpricing literature by focusing on the complementary or rather competing role of venture capitalists and underwriters in certifying the quality of a company when going public. Companies backed by a prestigious venture capitalist and/or underwritten by a top bank are expected to show less underpricing at the initial public offering (IPO) due to a reduced ex-ante uncertainty. This study provides evidence to the contrary: VC-backed IPOs appear to be more underpriced than non VCbacked IPOs.
The paper analyses the effects of three sets of accounting rules for financial instruments - Old IAS before IAS 39 became effective, Current IAS or US GAAP, and the Full Fair Value (FFV) model proposed by the Joint Working Group (JWG) - on the financial statements of banks. We develop a simulation model that captures the essential characteristics of a modern universal bank with investment banking and commercial banking activities. We run simulations for different strategies (fully hedged, partially hedged) using historical data from periods with rising and falling interest rates. We show that under Old IAS a fully hedged bank can portray its zero economic earnings in its financial statements. As Old IAS offer much discretion, this bank may also present income that is either positive or negative. We further show that because of the restrictive hedge accounting rules, banks cannot adequately portray their best practice risk management activities under Current IAS or US GAAP. We demonstrate that - contrary to assertions from the banking industry - mandatory FFV accounting adequately reflects the economics of banking activities. Our detailed analysis identifies, in addition, several critical issues of the accounting models that have not been covered in previous literature. December 2002. Revised: June 2003. Later version: http://publikationen.ub.uni-frankfurt.de/volltexte/2005/1026/ with the title: "Accounting for financial instruments in the banking industry : conclusions from a simulation model"
The paper provides a comprehensive overview of the gradual evolution of the supervisory policy adopted by the Basle Committee for the regulatory treatment of asset securitisation. We carefully highlight the pathology of the new “securitisation framework” to facilitate a general understanding of what constitutes the current state of computing adequate capital requirements for securitised credit exposures. Although we incorporate a simplified sensitivity analysis of the varying levels of capital charges depending on the security design of asset securitisation transactions, we do not engage in a profound analysis of the benefits and drawbacks implicated in the new securitisation framework. JEL Klassifikation: E58, G21, G24, K23, L51. Forthcoming in Journal of Financial Regulation and Compliance, Vol. 13, No. 1 .
This paper characterizes the optimal inflation buffer consistent with a zero lower bound on nominal interest rates in a New Keynesian sticky-price model. It is shown that a purely forward-looking version of the model that abstracts from inflation inertia would significantly underestimate the inflation buffer. If the central bank follows the prescriptions of a welfare-theoretic objective, a larger buffer appears optimal than would be the case employing a traditional loss function. Taking also into account potential downward nominal rigidities in the price-setting behavior of firms appears not to impose significant further distortions on the economy. JEL Klassifikation: C63, E31, E52 .