Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (5693) (remove)
Language
- German (3615)
- English (2049)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5693)
Is part of the Bibliography
- no (5693)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Entzündung (9)
- Genexpression (9)
Institute
- Medizin (1505)
- Biowissenschaften (831)
- Biochemie und Chemie (727)
- Physik (593)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (305)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
- Informatik (92)
- Informatik und Mathematik (91)
- Kulturwissenschaften (77)
- Mathematik (76)
- Wirtschaftswissenschaften (70)
- Erziehungswissenschaften (65)
- Geschichtswissenschaften (62)
- Geowissenschaften / Geographie (46)
- Sportwissenschaften (46)
- Philosophie (43)
- Rechtswissenschaft (39)
- Sprach- und Kulturwissenschaften (38)
- Psychologie und Sportwissenschaften (34)
- Geographie (27)
- Institut für Ökologie, Evolution und Diversität (24)
- Frankfurt Institute for Advanced Studies (FIAS) (18)
- Georg-Speyer-Haus (16)
- Extern (13)
- Philosophie und Geschichtswissenschaften (12)
- Sprachwissenschaften (12)
- keine Angabe Institut (7)
- Katholische Theologie (5)
- MPI für Biophysik (5)
- Biodiversität und Klima Forschungszentrum (BiK-F) (3)
- Evangelische Theologie (3)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (3)
- Fachübergreifend (3)
- Universitätsbibliothek (3)
- Center for Financial Studies (CFS) (1)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (1)
- House of Finance (HoF) (1)
- Institute for Monetary and Financial Stability (IMFS) (1)
- Interdisziplinäres Zentrum für Neurowissenschaften Frankfurt (IZNF) (1)
- Senckenbergische Naturforschende Gesellschaft (1)
- Universität des 3. Lebensalters e.V. (1)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (1)
Elektrische Kardioversion bei persistierendem Vorhofflimmern : ambulante versus stationäre Therapie
(1998)
Aufgrund ihrer bekannten Sicherheit und hohen Erfolgsrate ist die Elektrokardioversion im stationären Rahmen eine etablierte Therapie bei chronisch persistierendem Vorhofflimmern. In der vorliegenden Arbeit haben wir untersucht, ob auch die ambulante Durchführung einer Kardioversion mit gleicher Effektivität und Sicherheit möglich ist. Somit war Ziel der Arbeit, ambulante Kardioversionen zu untersuchen und der stationären Behandlung gegenüberzustellen. Während der anderthalbjährigen Laufzeit der prospektiven, nicht randomisierten Studie wurden 88 konsekutive, elektive Kardioversionen (an 65 Patienten) ambulant durchgeführt; insgesamt wurden während dieses Zeitraums 115 Prozeduren (bei 88 Patienten) erfaßt. Es wurde anschließend eine Nachbeobachtung über einen mittleren Zeitraum von 203 Tagen durchgeführt. Die Studie ergab, daß ambulante Kardioversionen zu 84% erfolgreich waren und Rezidive in 59% der Fälle innerhalb der Nachbeobachtung eintraten. Es zeigte sich bei den Patienten eine Abhängigkeit des Kardioversionserfolges vom Bestehen des Vorhofflimmerns. In der statistischen Analyse stellten sich keine klinischen Parameter als signifikant mit einem Rezidiv verbunden dar. Der abschließende Vergleich mit einer stationär therapierten Patientengruppe ergab keine signifikanten Unterschiede bezüglich Erfolg, Rezidiv und Sicherheit der Behandlung. Behandlungsbedürftige Akutkomplikationen traten bei 1,7% der ambulanten Kardioversionen auf. Schwere Komplikationen, insbesondere Embolien, wurden nicht beobachtet. Es traten keine schweren Blutungskomplikationen bei den chronisch antikoagulierten Patienten auf. Ambulante Kardioversionen sind der Therapie im stationären Rahmen gleichwertig und zudem deutlich kostengünstiger durchführen. Als Konsequenz dieser Untersuchung ist bei elektiven Eingriffen die ambulante Kardioversion des Vorhofflimmerns der stationären Behandlung vorzuziehen.
Die multiple Sklerose mit ihren 3 klinischen Verlaufssubformen schubförmig, sekundär chronisch-progredient und primär chronisch-progredient weist sowohl im klinischen Symptomenbild als auch in der Verlaufsdynamik eine ausgesprochene Heterogenität auf. Als prognostisch ungünstig gelten in erster Linie der primär oder sekundär chronisch-progrediente Krankheitsverlauf, ein höheres Manifestationalter, eine initiale cerebelläre und/oder pyramidale Symptomatik und ein in der frühen Phase sich rasch kumulierendes funktionelles Defizit. Andere mögliche Einflussgrössen, insbesondere genetische Faktoren, Liquorparameter und primäre Behandlungsstrategien, sind diesbezüglich umstritten oder weitgehend negativ geblieben. Eine sowohl im Hinblick auf die Krankheitsdefinition im Einzelfall als auch in prognostischer Hinsicht, in absehbarer Zeit vielleicht sogar für die Therapie, relevante Frage ist die des Auftretens einer zweiten neurologischen Krankheitsepisode (Schub, Attacke) nach einer zunächst isoliert aufgetretenen Episode einer entzündlichen neurologischen Erkrankung, die von der Art der Symptomatik und nach den technisch-apparativen wie laborbezogenen Zusatzbefunden als Erstschub einer multiplen Sklerose aufgefasst werden könnte. Die hierzu bislang vorliegenden Untersuchungen hatten in erster Linie die isolierte Optikusneuritis und monosymptomatische ZNS-Syndrome wie Querschnittsmyelitis, Episoden mit rein sensiblen Störungen und solche mit ausschliesslicher Hirnstammsymptomatik zum Gegenstand. Bevölkerungsbezogene Daten wurden dabei jedoch nur für die Optikusneuritis vorgelegt, zudem war bei dieser die Wertigkeit der paraklinischen Zusatzbefunde nur anhand klinischer Serien untersucht worden. In der vorliegenden eigenen Studie wurde die spezielle Frage der Fortentwicklung von einer möglichen bzw. fraglichen multiple Sklerose in eine wahrscheinliche oder sichere MS in Form entweder eines zweiten Krankheitsschubes oder des Übergangs in einen sekundär chronisch-progredienten Verlauf anhand einer Subkohorte mit einer derartigen Ereigniskonstellation aus einem bevölkerungsbezogen ermittelten umfangreichen MS-Krankengut (N=950) untersucht. Der Studienansatz entspricht einer gemischten historisch und prospektiv angelegten Kohortenstudie. Als Einschlusskriterien galten die klinisch gestellte Verdachtsdiagnose der multiplen Sklerose im Sinne einer Einzelattacke und die Zugehörigkeit zu der die epidemiologische Studienpopulation bildenden Bevölkerung eines definierten Areales in Südhessen sowie die Durchführung der ersten stationären abklärenden Untersuchung in der das Studienzentrum darstellenden Neurologischen Klinik in Darmstadt. Die Daten zum weiteren Krankheitsverlauf der Kohortenmitglieder wurden teilweise im retrospektiven Ansatz der Einzelfalldokumentationen der epidemiologischen Feldstudie, ergänzt durch die Krankenblattarchive der Klinik, teilweise prospektiv (die nach den vorliegenden Aufzeichnungen ohne Zweitereignis gebliebenen und damit als zu zensierend anzusehenden Patienten betreffend) durch prospektives Nachfragen bei den weiterbehandelnden Ärzten und den Kohortenmitgliedern selbst in Erfahrung gebracht. Die Wahrscheinlichkeit des Ausfallsereignisses, d.h. des Auftretens einer weiteren Krankheitsepisode bzw. eines sekundär chronisch-progredienten Verlaufes wurde in Abhängigkeit von der Beobachtungszeit nach den Methoden der Überlebenszeitanalyse (Kaplan-Meier-Methode) ausgewertet, und der mögliche Einfluss von demographischen und klinischen Variablen wurde univariat mittels des Log-Rank-Testes und multivariat anhand des Cox'schen Proportional Hazard- Modells untersucht. Von den 136 hinsichtlich des weiteren Verlaufes auswertbaren Patienten der Kohorte trat während der Beobachtungsperiode von Januar 1982 bis August 1995 bei 71 (45 Frauen, 26 Männern) das Ausfallsereignis ein, wobei das Intervall zwischen 2 Monaten und 12 Jahren stark variierte. Für die Gesamtkohorte (N = 136) lag der Median bei 67 Monaten (Standardabweichung: 17 Monate), und nach 95 Monaten (7,9 Jahre) hatten 40 % der Kohortenmitglieder das Zweitereignis (noch) nicht entwickelt. Bei der univariaten Auswertung anhand des LogRank-Testes waren ein Erkrankungsalter unter 30 Jahren, eine andere Anfangssymptomatik als eine monosymptomatische Optikusneuritis, das Betroffensein von mehr als 2 Funktionssystemen bei der initialen Episode sowie eine abnorm erhöhte Liquorzellzahl, ein erhöhtes Liquoreiweiss und eine gesteigerte intrathekale IgG-Syntheserate bzw. wenigstens einer der genannten Liquorparameter sowie eine Latenzzeitverzögerung im VEP (mit oder ohne gleichzeitige Amplitudenreduktion) statistisch signifikant (P < 0,05) mit der Ereigniswahrscheinlichkeit assoziiert. Ein niedrigerer sozioökonomischer Status (manuelle Berufstätigkeit zu Krankheitsbeginn), das Vorhandensein motorischer bzw. pyramidaler Störungen bei der Ausgangsepisode, das Vorliegen multipler Herdbildungen in der Kernspintomographie und die Anwendung einer Steroidtherapie bei der initialen Krankheitsattacke waren diesbezüglich grenzwertig signifikant (P 0,05 < P < 0,1). Hingegen waren das Geschlecht, die Nationalität, die übrigen betroffenen Funktionssysteme beim Initialschub (darunter Hirnstammsymptome, eine rein sensible Anfangssymptomatik und zerebelläre Symptome), das Vorhandensein von 2 oder mehr im Vergleich zu einem Funktionssystem sowie die Befunde der somatosensorisch evozierten Potentiale (SEP) und der Computertomographie (CT) diesbezüglich ohne prädiktiven Wert. In der multivariaten Auswertung anhand des Cox'schen Regressionsmodells zeigten die Beteiligung von 3 oder mehr Funktionssystemen, eine über eine Optikusneuritis hinausgehende Anfangssymptomatik, Latenzzeitverlängerungen im VEP und eine gesteigerte intrathekale IgG-Syntheserate einen eigenständigen Beitrag zum Risiko des Progesses in Form eines Zweitereignisses und damit des Überganges in eine gesicherte multiple Sklerose, während die übrigen univariat mit dem Risiko verknüpften Variablen sich diesbezüglich als konfundiert erwiesen. Wenngleich die in den Ergebnissen zu Tage getretenen breiten Konfidenzintervalle eine Festlegung im Einzelfall enorm erschweren, lassen die Ergebnisse doch gewisse Trendaussagen sowohl im Hinblick auf die Planung wissenschaftlicher Studien als auch die Beratung des einzelnen Kranken zu. Insbesondere erscheint es gerechtfertigt, bei einer Kombination von mehreren der in der vorliegenden Studie herausgestellten positiven prädiktiven Einfluss- grössen von einer eher ungünstigen Prognose, die Entwicklung einer klinisch sicheren MS betreffend, auszugehen. Ob damit auch eine prognostische Voraussage über den in der eigenen Studie nicht untersuchten weiteren Langzeitverlauf möglich ist, kann in Anbetracht der stark kontroversen Datenlage in der Literatur, die initiale Schubhäufigkeit und die Zahl beteiligter Funktionssysteme betreffend, vorerst noch nicht beurteilt werden. Über den wissenschaftlich studientechnischen und den Beratungsaspekt hinausgehend ist von Interesse, ob die hier aufgezeigten prognostischen Prädiktoren auch als Richtschnur für therapeutische Entscheidungen dienen können. Da eine das hier untersuchte Zielereignis beeinflussende Therapie vorläufig nicht existiert, stellt sich diese Frage derzeit konkret noch nicht, entsprechende Untersuchungen sind aber beispielsweise für Interferon-beta 1a im Gange. In jedem Fall werden evtl. zukünftige derartige Entscheidungen, auch dann wenn sich krankheitsbezogene Prädiktoren wie die in der hiesigen Studie herausgestellten mit heranziehen lassen, angesichts potentieller Nebenwirkungen der jeweiligen Substanzen ein hohes Mass an ethischer Verantwortung erfordern.
Hämosiderinbeladene Alveolarmakrophagen in der bronchoalveolären Lavage pädiatrischer Patienten
(1998)
Idiopathische pulmonale Hämosiderose (IPH) ist eine seltene Erkrankung unklarer Ätiologie, die hauptsächlich Kinder und Jugendliche betrifft. Pulmonale Hämorrhagie ist in Assoziation mit diversen respiratorischen und systemischen Krankheiten beschrieben (Systemischer Lupus Erythematodes, Goodpasture Syndrom). Eine frühe Diagnose der pulmonalen Hämorrhagie ist von großer Bedeutung, da die in Frage kommenden Erkrankungen progrediente und letale Verläufe nehmen können. Die bronchoalveoläre Lavage (BAL) ist die Methode der Wahl, um hämosiderinbeladene Makrophagen nachzuweisen und mögliche Ursachen zu diagnostizieren (Infektionen, maligne Prozesse). Studie: Es wurden 64 bronchoalveoläre Lavagen hinsichtlich des Hämosideringehaltes ausgewertet und bezüglich einer möglichen differentialdiagnostischen Bedeutung in der Pädiatrie untersucht. Da in unserer Kontrollgruppe wesentlich weniger Hämosiderin nachweisbar war als bisher beschrieben, wurde ein neuer Hämosiderin-Score für pädiatrische Patienten erstellt. Ergebnisse: Weder bei Patienten mit pulmonaler Symptomatik auf dem Boden eines gastroösophagealen Refluxes, noch bei Patienten mit chronischen Lungenkrankheiten anderer Genese wurden erhöhte Hämosiderin-Werte festgestellt. Schlußfolgerung: Da bei Kindern erhöhte Hämosiderin-Score in Assoziation mit chronischen pulmonalen Erkrankungen nicht gefunden wurden, sind auch nur leicht erhöhte Hämosiderin- Scores als möglicher Hinweis auf eine ernste Systemerkrankung anzusehen. Fallbeispiel: Über ein Kleinkind mit idiopathischer pulmonaler Hämosiderose bei einer gastroösophagealen Refluxerkrankung wird berichtet.
Die AICD-Implantation ist heute Therapie der Wahl zur Behandlung von Tachyarrhythmien bei Hoch-Risiko- Patienten nach überlebtem Herztod (1,2). Bezüglich einer differenzierten AICD-Therapie ist es hierbei von großem Interesse, ob die zur Implantation führende Rhythmusstörung, also Kammerflimmern oder ventrikuläre Tachykardie, Aussagen über Art und Häufigkeit von Rezidiven zulassen. Hinsichtlich der Inzidenz von therapiebedürftigen Tachyarrhythmien zeigt sich in unserer Patientenpopulation kein Unterschied zwischen Patienten mit Kammerflimmern und solchen mit einer ventrikulären Tachykardie als primärem Rhythmusereignis. Bei der Unterscheidung dieser Patientenpopulation muß in Betracht gezogen werden, daß dem Kammerflimmern zwar oft eine (nicht-dokumentierte) degenerierte ventrikuläre Tachykardie vorausgeht, monomorphe ventrikuläre Tachykardien und Kammerflimmern aber ansonsten unterschiedliche elektrophysiologische Charakteristiken aufweisen. So zeigt die genaue Analyse der gespeicherten intrakardialen Elektrogramme und Therapien, daß es bei Patienten mit Kammerflimmern signifikant häufiger zu Schockabgaben bei Kammerflimmern kam. Sollten sich diese Daten in größeren Patientenpopulationen bestätigen, wäre zu überlegen, ob Patienten mit Kammerflimmern als primäres Rhythmusereignis mit den weniger komplexen und kostengünstigeren AICD ohne ATP-Funktion versorgt werden könnten. Der Vergleich der Patienten mit der kardialen Grunderkrankung KHK und DCM zeigt weder einen Unterschied in der primären Rhythmusstörung noch im weiteren klinischen Verlauf. Wie in zahlreichen klinischen Studien belegt, ist auch in unserer Population eine stark eingeschränkte linksventrikuläre Ejektionsfraktion < 35 % der stärkste positive Prädiktor für das Auftreten einer erneuten Rhythmusstörung. Zusammenfassend haben also für identifizierte Hoch-Risiko-Patienten nach überlebtem Herztod weder die primäre Tachyarrhythmie noch die zugrundeliegende Herzerkrankung einen prädiktiven Wert für die Inzidenz von Tachyarrhythmieepisoden. Patienten mit Kammerflimmern als primärem Rhythmusereignis scheinen jedoch weniger vom ATP zu profitieren.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
RT-PCR zur Detektion von HCV: Für die Diagnostik und für Untersuchungen zur Pathogenese des Hepatitis C Virus ist es notwendig, eine sensitive und reproduzierbare RT-PCR zur Verfügung zu haben. Die Austestung verschiedener PCR-Verfahren zeigte, daß der Einsatz einer One-Step-PCR für die Diagnose der HCV-PCR die besten Voraussetzungen in bezug auf die Sensitivität und das Risiko für Produktkontaminationen besitzt. Die RT-PCR zeigte bei der Durchführung mit verschiedenen Primern, welche innerhalb der 5'-NC-Region anlagerten, große Unterschiede in der Sensitivität, welche wahrscheinlich auf die Sekundärstruktur der 5'-NC-Region zurückzuführen sind. Um den Zusammenhang zwischen Virustiter und dem Krankheitsverlauf bzw. die in vitro Replikation von HCV zu untersuchen, wurde eine quantitative RT-PCR etabliert. Für die Generierung einer Standard-RNA wurde mit Hilfe der "site-directed mutagenesis" ein 25 Basen umfassender Bereich innerhalb der 5'-NC-Region des Hepatitis C Virus ausgetauscht. An die resultierende cDNA wurde durch die Amplifikation mit speziell konstruierten Oligonukleotiden eine T7-Promotor-Sequenz angehängt. Mit Hilfe der T7-Polymerase wurde die auf diese Weise konstruierte cDNA in RNA umgeschrieben. Die mit diesem RNAStandard durchgeführte PCR hat nicht, wie andere beschriebene quantitative RT-PCRMethoden, den Nachteil der Bildung von Heteroduplexstrukturen bzw. der bevorzugten Amphfikation kürzerer DNA-Fragmente, was zu einer Unter- oder Überschätzung der HCVRNA führen kann. Mit der hier etablierten quantitativen RT-PCR ist es möglich, zehn RNAMoleküle zu detektieren. Dies entspricht etwa 500 HCV-Molekülen pro ml Serum. Die Anwendung der quantitativen RT-PCR bei 32 Patienten mit chronischer Hepatitis C Infektion zeigte keinen Zusammenhang zwischen dem Virustiter und der Höhe der Transaminasen bzw. des klinischen Erscheinungsbildes. Die Viruskonzentration schwankte von 105 bis 109 HCV-RNA-Molekülen pro ml Serum. Bei Patienten unter Interferon-Therapie zeigte sich, daß das Absinken der Transaminasen nicht in allen Fallen mil einer Eliminierung derHCV-RNA im Serum korreliert. In vitro Replikation von HCV und Untersuchungen zur Tumorigenität: Für viele Untersuchungen zur Pathogenese insbesondere der Tumorigenese des Hepatitis C Virus ist es notwendig, ein in vitro Replikationssystem zu etablieren. Die Replikation von HCV konnte in den Zellinien Molt4, Raji, Huh7 bzw. in PBMLs, immortalisierten Hepatozyten und primären Hepatozyten nachgewiesen werden. Jedoch war die Viruskonzentration nur sehr gering, und das Virus nur sporadisch an einigen Tagen in den Zellen bzw. im Überstand zu detektieren. Die ausgetesteten Zellsysteme waren nicht ausreichend, um Untersuchungen zur Pathogenese des Hepatitis C Virus korrekt durchführen zu können. Der Einsatz von PEG bzw. von Lipoproteinen hatte keinen Einfluß auf die in vitro Replikation des Virus. Sequenzvergleiche zwischen HCV-Isolaten aus Tumorgewebe und Isolaten aus umgebendem "gesundem" Gewebe sollten Aufschluß über mögliche direkte Einflüsse des Hepatitis C Virus auf die Entstehung hepatozellulärer Karzinome geben. Sequenzvergleiche innerhalb der 5'-NC-Region des Hepatitis C Virus zeigten keine Unterschiede zwischen Virus-Isolaten aus Tumor- bzw. Peritumorgewebe. Anhand der direkten Sequenzierung eines Bereiches der NS5- Region konnte das Vorhandensein verschiedener HCV-Varianten im Tumor- und im Peritumorgewebe nachgewiesen werden. Durch Isolierung und Sequenzierung von Isolaten aus jeweils drei verschiedenen Bereichen des Tumors bzw. des Peritumors konnte gezeigt werden, daß es sich nicht um eine zufällige Verteilung von HCV-Varianten über das Lebergewebe handelt, sondern um Tumor- bzw. Peritumor-spezifische Varianten. Die aus dem Tumor isolierten HCV-Core-Sequenzen wiesen alle im Vergleich zur Peritumor- bzw. Serumsequenz Veränderungen auf. Die Tumorsequenzen besitzen Mutationen, die entweder zu einem Abbruch der Proteinsynthese nach 28 bzw. 41 Aminosäuren führen oder zu einem Verschieben des Leserasters und dadurch bedingt, zu einer veränderten Aminosäuresequenz nach 19 bzw. 51 Aminosäuren. In Transformationsexperimenten mit NIH/3T3- und Rat1-Zellen konnte gezeigt werden, dass drei der aus dem Tumor isolierten Sequenzen die Proliferation der Zellen beeinflussen können. So konnten mit diesen Sequenzen transfizierte Zellen in 0.5 % FCS-haltigem Medium wachsen. Keine der Sequenzen konnte im Nacktmausversuch die Entstehung von Tumoren induzieren.
Primäres Ziel dieser Arbeit war es, einen direkten Beweis für die Annahme zuerbringen, dass eine starke Intensitätsabhängigkeit der N1/P2- Komponente des AEPs und im besonderen des tangentialen Dipols durch eine erniedrigte serotoninerge Neurotransmission verursacht wird. Gleichzeitig konnte als klinisch relevanter Effekt die mögliche Verwendbarkeit der Intensitätsabhängigkeit als biologischer Marker für das Aktivitätsniveau des serotoninergen Systems getestet werden. Durch das Studiendesign wurde zusätzlich die Überprüfung des allgemein postulierten Zusammenhanges zwischen einer impulsiv-aggressiven Persönlichkeitsstruktur und einer hohen Intensitätsabhängigkeit evozierter Potentiale als Nebenziel ermöglicht. Mit Hilfe in ihrer Zusammensetzung verschiedener Aminosäure-Mischungen, die eineperiphere Tryptophandepletion herbeiführen, sollte eine verminderte zentrale serotoninerge Neurotransmission erzielt werden.Die Intensitätsabhängigkeit des AEPs an den Tagen mit verminderter Verfügbarkeit des einzigen Präkursors von Serotonin, der essentiellen Aminosäure Tryptophan, wurde im Vergleich zu einem Kontrolltag überprüft, an dem nur ein Placebo verabreicht worden war.Dazu wurden 13 gesunde Probanden (7w, 6m) im Alter von 24-32 Jahren nach ausführlicher psychologischer Erfassung ihrer Persönlichkeitsstruktur einemdoppelblinden, placebokontrolliertem Cross-over Studiendesign unterworfen, in dem jede Versuchsperson die Aminosäure-Mischung Young 50 bzw. 100 und Moja als Tryptophandepletionstest (TDT) neben einem Placebo erhielt. Die Intensitätsabhängigkeit des AEPs am Kontrolltag wurde mit den bei der Voruntersuchung erhobenen Persönlichkeitsmerkmalen in Zusammenhang gesetzt. Das Hauptergebnis dieser Arbeit war eine positive Korrelation der Plasmatryptophanspiegels mit der Intensitätsabhängigkeit des tangentialen Dipols des N1/P2-Komplexes (r=0,46; p<0,05).Dies steht im Widerspruch zu den bisher veröffentlichten Arbeiten zu diesem Thema. Ein Grund für dieses konträre Resultat mag eine durch den TDT nicht herbeigeführte Erniedrigung der zentralen serotoninergen transmissiven Aktivität sein. Zudem wurden die meisten anderen Untersuchungen an Patienten, bei denen eine Störung im serotoninergen System von vornherein angenommen worden war, vorgenommen, was einen Hauptunterschied zu dieser Studie, die mit gesunden Probanden durchgeführt worden war, darstellt. Und ob bei normalen Probanden eine Tryptophandepletion es vermag, eine Erniedrigung serotoninerger Neurotransmission zuverursachen, bleibt fraglich. Auch ist die Intensitätsabhängigkeit des AEPs wohl nicht ein rein spezifischer, sondernhöchstens ein relativ spezifischer Parameter für die zentrale Aktivität serotoninerger Neurone. Sie kann also auch von anderen Transmittersystemen mit beeinflusst sein. Mit der unterschiedlichen Ausprägung der Intensitätsabhängigkeit des AEPs in den Hemisphären liess sich allerdings ein weiteres Indiz für eine funktionelle Seitenasymmetrie in der Reizverarbeitung und wohl auch im serotoninergen Stoffwechsel finden. Aber auch das Ergebnis, dass die Intensitätsabha"ngigkeit des radialen und tangentialen Dipols teilweise hochsignifikant negativ mit als eher aggressiv und impulsiv zu beurteilenden Eigenschaften korrelierte, widerspricht den bisherigen Studienergebnissen, nach der eine hohe serotoninerge Neurotransmission generell inhibierend auf das Verhalten wirke, und somit Aggressivitä"t und Impulsivität beiPersonen mit hoher Intensitätsabhängigkeit evozierter Potentiale auftreten müsste. Zweifel, ob die Intensitätsabhängigkeit wirklich den geeigneten Parameter zur Beurteilung des Aktivitätsniveaus im serotoninerge System darstellt, lassen das Ergebnis weniger widersprüchlich erscheinen. Ebenso erfordert die Komplexität des Zusammenspiels vieler verschiedener Modulatoren wohl eine enger gefasste Fragestellung, die auch andere Transmittersysteme, wie etwa das noradrenerge und dopaminerge, und Hormone, wie Testosteron oder Cortisol, mit einschliesst. Eine Beteiligung des serotoninergen Transmittersystems bei der Beeinflussungaggressiven und impulsiven Verhaltens lässt sich jedoch aus der Beobachtung vermuten, dass die Veränderung der Intensitätsabhängigkeit durch den Tryptophandepletionstestsich bei verschieden Persönlichkeitstypen anders verhielten. Neugierverhalten und Impulsivität zeigten eine signifikant negative Korrelation, mit der depletionsabhängigen Steigungsänderung (DSA"), Schadensvermeidung dagegen eine signifikant positive. Die Auswirkungen des TDT auf die Befindlichkeit und das Verhalten derteilnehmenden Probanden waren Themen einer anderen Arbeit (Sadigorsky, in Vorbereitung), ebenso wie die neuropharmakologischen Aspekte der Tryptophandepletion (Kewitz, in Vorbereitung). Durch die hier vorgestellten Ergebnisse erfährt die Hoffnung, einen biologischen Marker für einen für die Genese vieler psychiatrischer Störungen wichtigen Neurotransmitter gefunden zu haben, der nicht invasiv ist und schnell Einzug in dieklinische Routinediagnostik halten könnte, leider keinen Rückhalt. Zu viele Zweifel bestehen an der Aussagekraft und Spezifität dieses Funktionsparameters.
Die Struktur der innenpolitischen Konflikte in Armenien seit 1988 stand und steht in hohem Maße unter dem Einfluß der geopolitisch schwierigen Lage des Landes. Vor allem in dem Konflikt um BergKarabach manifestiert(e) sich die entscheidende Einengung armenischer außenpolitischer Handlungsoptionen durch äußere Konstellationen.. Jenseits dessen beeinflußt dieser Konflikt auch das Verhältnis der armenischen politischen Akteure zu Rußland als Dritter Macht. Dies galt zunächst in besonderem Maße für die Konflikte zwischen der Kommunistischen Partei Armeniens und dem mainstream im Komitee ''Karabach und auch für die Konflikte innerhalb des Komitees ''Karabach bzw. dessen Nachfolgeorganisation, der AGB: Dem von Nora Dudwick konstatierten ''beeindruckenden Konsens stand die frühe Marginalisierung extrem antisowjetischer Kräfte wie etwa Parujr Hajrikjan ebenso wie die Ausgrenzung moskaufreundlicher armenischer Akteure wie Zorij Balajan oder Sil'va Kaputikjan gegenüber. Der Konflikt zwischen den unterschiedlichen politischen Konzepten, hier subsumiert unter dem Begriffspaar Realpolitik und Identitäts oder Prinzipienpolitik läßt sich gleichsam als Route auf der narrativen Landkarte' von Vernichtung und Gegenwehr verorten. Beide (gegensätzlichen) Entwürfe von Politik, die für sich in Anspruch nehmen, im Dienste des nationalen Interesses zu stehen, begreifen sich jeweils als einzig angemessene Reaktion auf Geschichte, mithin im Kern auf den narrativ verarbeiteten Genozid als Vernichtungserfahrung bzw. die damals für möglich (bzw. eben für unmöglich) gehaltene Gegenwehr. Das Konzept der Gegenwehr gegen erneute Verfolgung und Vernichtung ist somit das prinzipiell vereinende Motiv des armenischen Identitätsentwurfs. Wie jedoch dieser Entwurf unmittelbar in ein konsensuales nationales Interesse und damit in konkrete Politik umgesetzt werden kann, darüber scheiden sich die Meinungen. So steht dem Streben nach realpolitischem Ausgleich mit allen Nachbarn Armeniens ohne Verweis auf die Urheberschaft der Türkei am Genozid 1915, wie ihn die AGB fordert(e), die das Erinnerungsband und die damit verbundene armenische Identität betonende Vorstellung der ARF gegenüber, ohne vorherige Anerkennung des Genozids von 1915 keinen Ausgleich mit der Türkei anstreben zu können oder auch nur zu wollen. All diese internen Auseinandersetzungen um das armenische nationale Interesse fanden vor dem Hintergrund des durch die geopolitische Situation erzeugten Drucks statt, der in Gestalt des Kriegs um BergKarabach auf allen politischen Akteuren lag, und der die Existentialisierung der Wahrnehmung von Handlungsoptionen entscheidend verschärfte. Die tatsächliche Bedrohung von Außen erfuhr dabei eine eklatante Verschärfung durch die narrativen Wahrnehmungsprozesse im Innern, im Verlaufe derer das Motiv der Bedrohung prismatisch konzentriert wurde. Es ist konkret die Frage der Wahrnehmung gleichsam ''objektiver äußerer Strukturen, die die Zwangslage der Armenier nachhaltig verschärft. Auf diese Weise erscheinen in den Augen der Armenier einige Vorschläge zur Beilegung des Karabach Konflikts, wie sie in der Vergangenheit vorgelegt worden waren, eklatant an diesem prinzipiellen Problem vorbeigedacht. Als Beispiel dafür kann der sogenannte ''Goble Plan angesehen werden. Die Tatsache, daß die Ausprägung dessen, welche Handlung als im armenischen Nationalinteresse stehend wahrgenommen wurde, in der Diaspora und in Sowjetarmenien stark unterschiedliche Entwicklungen genommen hat, ließ im postsowjetischen Armenien nach dem Zusammentreffen beider Konzeptionen, prominent vertreten durch die AGB und die ARF, ein explosives Gemisch gegensätzlicher politischer Auffassungen um das Nationalinteresse zusammen mit von beiden Seiten vertretenem Ausschließlichkeitsanspruch entstehen. Hinzu kam, daß ihre Rückkehr nach Armenien die ARF zu einer Partei unter vielen anderen hatte werden lassen. Das jedoch war prinzipiell unvereinbar mit dem ihr eigenen Selbstverständnis, das davon ausging, daß die ARF die Verkörperung der nationalen Aspirationen der Armenier schlechthin sei. Zwar hatte die ARF in der Diaspora eine bestimmende Rolle, doch besaß sie, wie oben gezeigt, keineswegs das Monopol für politische Artikulation unter den Armeniern in der Diaspora. Die politischen Differenzen unter den DiasporaArmeniern fanden ebenfalls Eingang in die Struktur der politischen Auseinandersetzungen in der Republik Armenien: Die ''Situation wird noch dadurch kompliziert, daß alle Ideologien und Spaltungen unter den Armeniern im eigentlichen Armenien reproduziert werden. Die von der ARF favorisierte Option einer Protektion Armeniens durch die Sowjetunion bzw. Rußland als Dritter Macht entsprach, wie oben gezeigt, auch zu weiten Teilen des mainstreams der ersten Stunde der KarabachBewegung, die diese als Unterstützung der perestrojka Gorba!evs begriffen hatte. Zorij Balajan, früh marginalisierter Aktivist der ersten Stunde des Komitees ''Karabach, erwies in diesem Sinne dem Ersten Sekretär der KP der Armenischen SSR von 1976 bis 1988, Karen Demir!jan, seine Reverenz: ''Und doch muß man gerecht sein und einen Menschen nach den Gesetzen seiner Zeit beurteilen. Und Demir!jan nicht zu achten heißt, die eigene Geschichte nicht zu achten. Seit der Suspendierung der Tätigkeiten der ARF im Dezember 1994 haben sich die politischen Konflikte in Armenien erheblich verschärft. Anläßlich der Parlamentswahlen und des Verfassungsreferendums im Sommer 1995 etwa beschrieb der armenische Präsident Levon TerPetrosjan in düsteren Farben die Katastrophe, die seines Erachtens mit einem Wahlsieg der Opposition dem Lande drohen würde, und schloß seine Rede mit den Worten: ''Sie mögen den Eindruck gewinnen, daß ich die Realität in sehr dunklen Farben schildere, aber ich möchte ihnen versichern, daß die Wirklichkeit noch viel dunkler sein kann, noch viel monströser als ich Ihnen heute sagen kann. Wie dem auch sei, ich glaube an Ihre Weisheit, glaube, daß Sie Ihrer Zukunft nicht gleichgültig gegenüberstehen, einer Zukunft, deren Aufbau Ihnen selbst obliegt. Die Existenz unseres Landes, die Sicherheit Ihrer Kinder, alles hängt ab von Ihren Entscheidungen. Und ich bin sicher, daß Sie ein entschiedenes NEIN all jenen Opportunisten und Abenteurern entgegnen, die persönliche Fragen mit dem Blut Ihrer Kinder zu beantworten trachten. Ich bin sicher, daß Sie einstimmig JA zur Verfassung sagen und für den Block Hanrapetutjun' votieren. Ihre Sicherheit, Ihr Wohlstand und der Friede, alles hängt von dieser Entscheidung ab. Auch im Vorfeld der Präsidentschaftswahlen im September 1996 warnte Levon Ter Petrosjan vor ''Faschismus, Tyrannei und Chaos im Falle des Wahlsiegs eines oppositionellen Kandidaten. Im Verlaufe des Jahres 1997 jedoch ließen verschiedene Signale der Konzilianz gegenüber der Opposition den Eindruck entstehen, daß die AGBRegierung und Präsident TerPetrosjan eine konsensualere Politik nach Innen verfolgen würden, möglicherweise auch, um in der Außenpolitik größere Handlungsfähigkeit zu gewinnen. So wurde etwa Robert Ko!arjan, der ehemalige Präsident der nicht anerkannten Republik BergKarabach, zum Premierminister der Republik Armenien, und Suren Zoljan, leitendes Mitglied der oppositionellen WissenschaftlichIndustriellen und Bürgerunion, zum Leiter des renommierten BrjusovInstituts in Erevan ernannt. Ihren Anfang hatte diese Politik des versuchten Ausgleichs mit der Opposition mit der engen Kooperation der armenischen Regierung mit der armenischen Kirche genommen. 1995 wurde der Katholikos von Kilikien zum Katholikos Aller Armenier, Garegin I., gewählt. Der armenische Präsident hatte mit großem Nachdruck die Wahl Garegins unterstützt, obwohl man dem Katholikat von Kilikien eine große Nähe zur ARF nachsagt. Dieser Versuch eines Brückenschlags zu den Teilen der Diaspora, die der armenischen Regierung feindlich gesonnen waren, hat jedoch weder TerPetrosjan, noch dem neugewählten Katholikos ausschließlich Wohlwollen eingebracht. Daß die Spaltung der Diaspora noch lange nicht überwunden ist, zeigte sich dann auch einmal mehr, als Garegin I. gemeinsam mit Papst Johannes Paul II. eine Erklärung unterzeichnete, daß die theologischen Differenzen zwischen beiden Kirchen hinsichtlich der Natur Jesu Christi nicht mehr Gegenstand von Konflikten werden sollten. Für diese Erklärung wurde Garegin I. von hochrangigen armenischen Kirchenvertretern aus der Diaspora heftig angegriffen, die ihm das Recht absprachen, eine solche Erklärung im Namen der armenischen Kirche abzugeben. Die Nagelprobe muß alle Politik der Konsensualisierung oder der Konfrontation jedoch in der KarabachFrage bestehen. Letztlich determiniert der Konflikt um Berg Karabach nach wie vor die armenische Außenpolitik über alle Maßen. So verkündete etwa der ehemalige armenische Außenminister Vahan Papazjan, sollte der Bevölkerung in BergKarabach ein Genozid oder die Deportation drohen, die Republik Armenien zum militärischen Eingreifen in BergKarabach bereit sei. Auf dem OSZEGipfel in Lissabon im Sommer 1997 hatte Levon TerPetrosjan den Versuch unternommen, den Schulterschluß mit der Gesellschaft in Armenien zu schaffen. Hartnäckig weigerte er sich, das Schlußdokument zu unterzeichnen, in dem hinsichtlich des Konflikts um BergKarabach festgehalten werden sollte, daß jede Regelung des Konflikts vom Recht der Republik Azerbajd.an auf territoriale Integrität ausgehen müsse. Mit seiner Weigerung geriet er jedoch unter erheblichen Druck von Seiten der internationalen Gemeinschaft (OSZE, UN, IBRD etc.) wegen dieses ''Rückfalls in die (Sowjet) Zeit, als der Oberste Sowjet Armeniens die Vereinigung BergKarabachs mit Sowjetarmenien beschlossen und damit das Recht der Azerbajd.anischen SSR auf territoriale Integrität verletzt hatte. Lissabon war der Versuch, sich bei der Opposition als harter Verfechter des Rechts BergKarabachs auf Selbstbestimmung zu profilieren. Auch dem außenpolitischen Druck in der Folge von Lissabon mag es geschuldet sein, daß der armenische Präsident im September 1997 eine Pressekonferenz gab, auf der er das von der im KarabachKonflikt vermittelnden Minsker Gruppe der OSZE vorgeschlagene Phasenmodell akzeptierte, bei dem die Tendenz stark in Richtung einer prinzipiellen Akzeptanz azerbajd.anischer zumindest völkerrechtlicher Hoheit über BergKarabach geht. Für dieses ''Einknicken wurde er von zahlreichen armenischen Intellektuellen und ehemaligen Mitstreitern im Komitee ''Karabach scharf kritisiert, die ihm erneut Verrat an den armenischen nationalen Interessen vorwarfen. Für die Opposition ist Levon Ter Petrosjans Schwenk ein Rückfall hinter den Status vom Februar 1988, als der Gebietssowjet von BergKarabach erstmals seinen Wunsch nach Austritt aus dem Staatsverbund Azerbajd.ans bekundet hatte. Mit einem solchen Schritt würden, so die Vorwürfe, alle Pfände, die BergKarabach im Laufe des Krieges gewonnen hätte, die Sicherheit und die Stabilität mit einem Schlag wieder zunichte gemacht. Die innerarmenischen Diskussionen um die KarabachFrage verschärften sich im Winter 1997/98 erneut, als die Minsker Gruppe der OSZE in Gestalt ihres DreierCo Vorsitzes von Frankreich, den U.S.A. und der Rußländischen Föderation um die Zeit des OSZEGipfels in Kopenhagen eine neue Verhandlungsoffensive ankündigte. Hinzu kam, daß die Kompromißbereitschaft Levon TerPetrosjans nicht nur von der innerarmenischen Opposition kritisiert wurde, sondern auch von der karabach armenischen Regierung unter ihrem Präsidenten Arkadij Ghukasjan, der den Ausverkauf karabacher Interessen durch die Regierung Armeniens zu befürchten schien. Damit befindet sich die armenische Regierung und Präsident TerPetrosjan in einer Zwangslage zwischen starkem außenpolitischen Druck in Richtung von Konzessionen in der KarabachFrage, und massivem Druck von Seiten der innerarmenischen Opposition und der karabacharmenischen Regierung, die eine konziliante Haltung vehement ablehnen. Es ist vor allem diese Pattsituation in der KarabachFrage, die alles in allem die Entwicklung regionaler Interaktionsstrukturen behindert, die für den Transkaukasus und damit auch Armenien dringend notwendige Modernisierungspotentiale mit sich brächten und langfristig mit einer Stärkung der Eigenstaatlichkeit einhergingen. Das vorerst letzte Kapitel innerarmenischer Auseinandersetzungen um die KarabachFrage ist die Eskalation der Konflikte innerhalb der AGB. Gegenstand der innerparteilichen Auseinandersetzungen ist wieder das KarabachProblem bzw. die Frage, welche Haltung zu den Kompromißvorschlägen der OSZE in der Konfliktvermittlung einzunehmen sei. Es zeichnet sich hier eine Spaltung in eher kompromißbereite und eher unnachgiebige Kräfte auch in der AGB ab. Es ist vor allem die Heftigkeit, mit der der Konflikt ausgetragen wird, die ein weiteres Mal den Absolutheitsanspruch widerspiegelt, mit dem die unterschiedlichen Entwürfe des vitalen armenischen Nationalinteresses, in dessen Dienst zu stehen, die Antagonisten für sich in Anspruch nehmen, aufeinanderprallen.
En el presente trabajo he investigado acerca de los factores que determinaron el quiebre del Compromiso Histórico en el ámbito educacional en Chile y las consecuencias que dicho quiebre trajo en la desestabilización del régimen militar al perder el apoyo de los sectores de la clase media y dentro de éstos principalmente del magisterio organizado. Primeramente debo señalar, al llegar al final de esta investigación, que el régimen militar en Chile aparece en el marco de un situación de excepción la cual está facilitada paradojalmente por el alto grado de politización de la sociedad chilena pero al mismo tiempo por la pérdida de la capacidad de diálogo entre los actores que se enfrentan en la arena política. Como lo he señalado en el transcurso de mi investigación, Chile fue un país que se caracterizó tempranamente por una tradición dialoguista; Esto sirvió de base para que, en un conflictivo periodo de crisis institucional se aprobara una Constitución (1925) en la cual los consensos jugaron un papel importante. En esta Constitución, tanto los grupos emergentes de la clase media, así como la burguesía agrarioindustral y los trabajadores organizados quedan debidamente representados. El Estado no cambia radicalmente su perfil pero quienes lo administran pasarán a jugar un rol significativo dentro de este compromiso. Los maestros, hacia la época organizados en un gremio con carácter sindical(AGP), se incorporan con gran voluntad a este proceso y actúan como intermediarios entre los grupos conservadores y liberales en decadencia y los nuevos actores sociales emergentes: la clase media y los obreros organizados. Esta forma de compromiso duró aproximadamente 50 años en Chile y permitió, entre otras cosas, la democratización del país, el desarrollo de las organizaciones de la sociedad civil así como el mejoramiento en las condiciones materiales de vida de la población. A todo ello se agregaba la educación gratuita y una serie de derechos cívicos entre los que sobresalen la libertad de opinión, ampliación del derecho a voto y la libertad de asociación. El periodo que media entre 1925 y 1973 está fuertemente influído de los preceptos y comportamientos culturales de la clase media. A partir de 1950 se fortalecen en la sociedad los partidos políticos de orientación marxista, los cuales junto a la aparición del Partido Demócratacristiano van desplazando al Partido Radical del protagonismo en la administración del Estado. Hacia los años 60 los partidos socialista y comunista se encuentran unidos en una coalición y mantienen una fuerte influencia en el movimiento sindical obrero y de profesores. Este último, durante dicho periodo crece, se desarrolla y participa activamente de las negociaciones sobre cambios educacionales. Aunque obtiene del Estado una serie de garantías sociales, se mantiene en el profesorado un endémico disconformismo por los bajos salarios que percibían. En este proceso de unificación y crecimiento que menciono el gremio se vio fuertemente tironeado por los partidos políticos produciéndose una notoria politización dentro de sus filas, especialmente en los estamentos directivos altos e intermedios. La creación del Sute a comienzo de los años 70 y la adscripción de una gran parte del gremio a los postulados de la Unida Popular, crea fricciones al interior del magisterio y se producen ásperas discusiones entre sus miembros por la implementación de una reforma educacional la que, a decir de los opositores, pretendía cambiar la forma y los contenidos de la educación chilena. El tipo de escuela propuesto por los reformistas encontraba serios desertores no solamente dentro del magisterio sino también dentro del resto de la sociedad civil. Preciso decir que la población chilena, producto de los cambios sociales y económicos operados en el país se encontraba bastante polarizada, razón por la cual la polémica educacional quedó en parte sesgada por la fricción entre partidarios y oponentes del gobierno de Salvador Allende. El presidente Allende al constatar que el proyecto de reforma educacional no lograba reunir los consensos necesarios en la sociedad civil, decidió retirarlo a la espera de mejores condiciones de diálogo con la otra parte de la población. En el año 1973 este ya entorpecido diálogo se rompe. Las Fuerzas Armadas irrumpen al poder para resolver la crisis pero no sólo se encargaron de destituir al presidente supuestamente inconstitucional sino que además prescindieron de toda constitucionalidad para hacerlo. Los militares desmantelan practicamente toda la estructura educativa existente hasta la época. El gremio de maestros, SUTE, es disuelto y comienza a operar una fuerte censura en todos los mandos de la administración pública. Muchos de los opositores al nuevo régimen deben abandonar su servicio en escuelas y universidades y otros incluso son encarcelados o bien obligados a salir del país. Por medio de una serie de medidas de carácter coercitivas y económicas el régimen militar impone sus proyectos educacionales en un plazo de 7 años pero por ello debe pagar un precio muy alto. Una gran parte del magisterio y un sector representativo de la clase media abandonan la postura neutral o de adehsión que tenían hacia el régimen y se van nucleando en un movimiento opositor contestatario que va a tener intrincadas consecuencias en la capacidad de gobernabilidad del régimen. En este proceso más de confrontación que de negociación surgen diferentes instancias gremiales de los maestros entre las que destacan una coordinación del magisterio, un club del magisterio, una asociación gremial de educadores y finalmente, a través de la presión gremial de los maestros opositores logran éstos ultimos, arrebatar, en elecciones libres, la conducción del Colegio de Profesores. Finalmente debo decir que el gremio de maestros no derrotó ni fue el sector determinante en la salida del régimen militar como algunas personas han pretendido concluir de mi tesis. Lo que sí afirmo es que la elección del Colegio de Profesores abrió las compuertas de una movilización social que ni el régimen, ni los mismos maestros se habían imaginado. El profesorado chileno con gran influencia cultural en la sociedad y víctima al mismo tiempo de una política oficialista de subvaloración y desprecio, terminó por desafiar al régimen militar enfrentándolo y derrotándolo primero en elecciones gremiales a los representantes del régimen y luego mostrando una vía de escape al resto de un país país atrapado y disminuído por el autoritarismo.
Die chilenische Geschichte ist seit der Unabhängigkeit von Spanien von einer für lateinamerikanische Verhältnisse ungewöhnlichen Dialogtradition gekennzeichnet. Die chilenischen Lehrer und ihre Organisationen spielten in dieser Dialogtradition eine besondere Rolle. Sie trugen zur Begründung dieser Tradition bei, waren ein bewußter Teil der Mittelschicht, der die Rolle der gesellschaftlichen Vermittlung zwischen den widerstreitenden Interessen des agroindustriellen Bürgertums und der Arbeiterbewegung zukam, und sie vertraten diesen Historischen Kompromiß in Schulen und Bildungszentren. Die chilenische Verfassung von 1925 ist ein Beispiel für diese Dialogtradition. Sie ist das Ergebnis einer gelungenen Konsenssuche und etabliert diesen Konsens für fast ein halbes Jahrhundert. Die chilenische Lehrerorganisation hat eine wichtige Rolle bei der Formulierung dieser Verfassung gespielt. Durch die Verfassung wurde es möglich, daß viele gremialistische, gewerkschaftliche und kooperative Gruppierungen sich parteiförmig organisierten und ihre Partialinteressen gesamtgesellschaftlich einbrachten. Die Verfassung von 1925 wies dem Staat die Rolle zu, soziale Sicherheiten zu garantieren und die Entwicklung des Landes voranzutreiben. Besonders die allgemeine Schulpflicht gehörte zu diesen Neuerungen. Den Lehrern und ihren Organisationen kam durch ihre Beteiligung an der Verfassung und die Verbreiterung des Bildungswesens die Rolle eines gesellschaftlichen Subjektes zu. Sie waren im Sinne Gramscis "organische Intellektuelle". Von 1925 bis zum Militärputsch von 1973 prägte die Mittelklasse die chilenische Gesellschaft. Die "Kultur der Mittelklasse" (G. Vial) wurde zur vorherrschenden Kultur. Die Lehrer waren in dieser Zeit Protagonisten der gesellschaftlichen Entwicklung und wurden zu gesellschaftlichen Vermittlern mit "anerkannten Fähigkeiten", 90 wenn es um die großen Erziehungsprobleme Chiles ging. Eine wichtige Etappe in diesem Prozeß war die Erziehungsreform von 1928. Die chilenischen Lehrer waren auf diese Aufgabe dadurch vorbereitet, daß sie den unterschiedlichsten philosophischen und politischen Strömungen (Agnostiker, Christen, Freimaurer und Marxisten) angehörten. 90 Episcopado chileno, Reforma educacional, Julio, 1981,S. 371 Seit der zweiten Hälfte der zwanzigsten Jahrhunderts gewann die marxistische Linke vor allem die Sozialisten und Kommunisten, die seit den zwanziger Jahren im Parlament vertreten waren unter den chilenischen Lehrern an Einfluß. Der Einfluß der bis dahin vorherrschenden Radikalen Partei schwand, und an deren Stelle trat die christdemokratische Partei. In dieser Situation entstand die Lehrergewerkschaft SUTE. Die SUTE setzte sich für eine neue Erziehungsreform ein, in deren Zentrum das Konzept einer "Nationalen Einheitsschule" (Escuela Nacionál Unificada, ENU) stand. Neben einer besseren Vermittlung von Theorie und Praxis sollte diese Schule den "neuen Menschen" in einer sozialistischen Gesellschaft schaffen. Die Kampagne für die ENU traf auf den geeinten Widerstand der katholischen Kirche und der rechten Parteien und Organisationen Chiles. Der sozialistische Präsident Allende, der in der Tradition konsensualer Vermittlung stand, gab unter diesem Druck das Reformprojekt auf. Der Militärputsch von 1973 brach mit der chilenische Dialogtradition. Die Lehrer verloren unter Pinochet fast alles, was sie bis dahin erreicht hatten, vor allem aber die Möglichkeit, an Entscheidungen in Fragen der Erziehungspolitik teilzunehmen. Namhafte Wissenschaftler und viele qualifizierte Lehrer wurden aus politischen Gründen entlassen, wenn nicht gar verhaftet oder ins Exil gezwungen. Die Schulen wurden privatisiert oder in kommunale Trägerschaft überführt. Die pädagogischen Hochschulen wurden in die Universitäten integriert, ein Schritt, der auf gespaltene Ressonanz stieß. Ein Teil der Lehrer sah darin eine Aufwertung des Erzieherberufs, andere hingegen die Zerstörung des traditionellen Ausbildungswesens der Lehrerschaft. Die Militärregierung löste den SUTE auf und ersetze ihn durch das Colegio de Profesores, das auf der Seite der Militärs stand. Ein von der Regierung erlassenes Anstellungsstatut verschlechterte mittelfristig die Situation der Lehrer. Sie waren durch diesen Statut und durch die Privatisierung und Kommunalisierung nun nicht mehr dem Erziehungsministerium, sondern oft nichtpädagogischen Chefs wie Bürgermeistern und privaten Schulträgern und unternehmern zugeordnet, die sich oft wie "kleine Diktatoren" (Schulak) benahmen. Inmitten einer Periode völliger gesellschaftlicher Immobilität, die nach dem gewaltsamen Putsch eingetreten war, bildeten sich erste Oppositionsgruppen innerhalb des Colegio de Profesores und, alternativ dazu, die Lehrergewerkschaft AGECH (Asociación Gremial de Educadores de Chile). Die Wahlen zum Colegio de Profesores 1985 und die Opposition der AGECH spielten eine wesentliche Rolle bei der breiten Opposition gegen das Militärregime, die 1983 begann. Die chilenischen Lehrer und ihre Organisationen waren neben der Menschenrechtsbewegung diejenige Gruppierung, die den Minderheitenkonsens der Pinochetregierung, der aus dem negativen Konsens der militärischen Elite hervorgegangenen war, in einer Weise herausforderte, die die Streitkräfte zwang, in eine Dialogpolitik einzutreten, die schließlich zum Übergang zur Demokratie (transición) führte.
In dieser Arbeit konnten erstmals differentielle Ionisationswirkungsquerschnitte für Antimaterie-Materie-Stöße gemessen werden. Mit Hilfe der COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) wurden die Stoßsysteme p± + He ® p± + He+1 + ebei einer Einschußenergie von etwa 1 MeV untersucht. Die experimentellen Ergebnisse für die Einfachionisation von Helium durch Antiprotonenstöße werden mit denen für Protonenstöße verglichen. Dies erlaubt den Stoßmechanismus in Abhängigkeit von der Richtung der störenden Kraft zu studieren. Als Ergebniss konnte die Post-Collision-Interaction (PCI) in der longitudinalen Richtung des Stoßes (Projektilrichtung) quantitativ bestimmt werden. Trotz der großen experimentellen Schwierigkeiten (hochenergetischer Antiprotonenstrahl, geringer Antiprotonenstrom, große Strahldivergenz und Strahlungsuntergrund durch Antiprotonenzerfall) konnten absolute die Wirkungsquerschnitte in Abhängigkeit vom Longitudinalimpuls gemessen werden. Innerhalb der experimentellen Fehler zeigen die Longitudinalimpulsverteilungen keine Abhängigkeit vom Projektilvorzeichen. Die folgende Tabelle faßt die mittleren Impulse des Elektrons und des Rückstoßions für Antiprotonen- und Protonenstöße zusammen Rückstoßion Elektron Antiproton 0.07±0.045 a.u. 0.087±0.039 a.u. Proton 0.075±0.025 a.u. 0.075±0.007 a.u. Die Tabelle zeigt, daß nach dem Stoß die Elektronen in beiden Stoßsystemen etwas nach vorne emittiert werden. Das steht im Widerspruch zu den theoretischen Vorhersagen, wonach erwartet wird, daß die Elektronen im Protonenstoß etwas nach „vorne“ und im Antiprotonenstoß etwas nach „hinten“ emittiert werden. Das Rückstoßion agiert in beiden Systemen als Beobachter. Dies widerspricht ebenfalls den Vorhersagen, wonach erwartet wird, daß das Rückstoßion im Protonenstoß etwas nach hinten und im Antiprotonenstoß etwas nach vorne emittiert wird. Die experimentellen Ergebnisse zeigen eine bessere Übereinstimmung mit den Continuum-Distorted-Wave (CDW) Rechnungen als mit den Classical- Trajectory-Monte-Carlo (CTMC) Rechnungen. Im Vergleich zur Stößen mit schnellen hochgeladenen Ionen zeigen die Daten dieser Arbeit, daß die Elektronen die Impulsverluste des Projektils kompensieren, während in hochgeladenen Ion-Atom-Stöße die Rückstoßionen den Impuls der Elektronen kompensieren.
Modalität in der Musik Ruggiero Giovannellis (ca. 1555 - 1625) : zur Geschichte der Tonarten um 1600
(1998)
Die Arbeit untersucht am Beispiel der Kompositionen des Palestrinaschülers Ruggiero Giovannelli die Entwicklung der Kompositionstechnik um 1600 in Italien. Im Zentrum steht die Frage der Tonarten, insbesondere der Entwicklung der Modalität am Übergang von prima zur seconda prattica. Die offenkundige Diskrepanz zwischen der Bedeutung der Modi in der Musik um 1600 und der nachgerückten Bedeutung, die ihnen in wissenschaftlichen Arbeiten zuerkannt wird, ist der Ausgangspunkt, um am Beispiel Ruggiero Giovannellis ein Analysemodell für modal begründete Musik an ausgewählten Werken zu erproben. Zugleich wird eine historische Perspektive modaler Änderungen in einer Zeit beschleunigten musikalischen Wandels aufgezeigt. In detaillierten Analysen wird gezeigt, inwieweit sich in der Musik Giovannellis die satztechnische Tradition der römischen Schule in ihrer modalen Anlage an die Erfordernisse der affektgerichteten Monodie angepasst hat. Auf der Grundlage der theoretischen Arbeiten Bernhard Meiers wird gezeigt, wie Modalität als satztechnische Grundlage in zeitlicher, regionaler und individueller Ausprägung in der Musik um 1600 konkret realisiert wird. Die Arbeit zeigt die Möglichkeiten und Grenzen der Herausforderungen der Neuerungen des Stile moderno an die modalen Grundlagen der Musik, welche sich den neuen satztechnischen Erfordernissen nur begrenzt anpassen konnte. Unter diesem Aspekt einer Entwicklungsgeschichte der Modalität eignet sich Giovannelli als Anschauungsobjekt in vielfältiger Perspektive. Er war Kapellmeister und Sänger an den wichtigsten kirchlichen Institutionen Roms und gleichzeitig in vielfältigem Kontakt mit weltlichen Kreisen. Sein Œuvre umfasst die zentralen weltlichen und geistlichen Gattungen und Stile seiner Zeit: unterschiedlich besetzte Madrigale, Villanellen, Kanzonetten, Motetten und Messen, Mehrchörigkeit findet sich neben generalbassbegleiteter Monodie. Durch seine enge Bindung an Palestrina sowie durch ausgedehnte Aufenthalte in Nord¬italien war er mit allen zeitgenössischen Stilen vertraut. Eine weiterer Aspekt der Arbeit befasst sich mit der Frage, inwieweit der Prozess der Autonomisierung des textlichen Affektgehalts im strengen Satz und die Integration neuer stilistischer Elemente einen Einfluss der römischen Schule auf die Kompositionstechnik in Norditalien (greifbar etwa an der Entwicklung der Mehrchörigkeit in Venedig) gehabt hat. In der Zeit eines beschleunigten historischen Wandels wirkte Ruggiero Giovannelli als behutsamer Erneuerer des Überlieferten. Während er die traditionellen Gattungen Madrigal und Motette auf der Basis der bestehenden musiktheoretischen Maxime weiterentwickelte, brachen andernorts Komponisten radikaler und nachhaltiger mit den bis dahin gültigen Grundlagen der musikalischen Komposition. Ruggiero Giovannelli stand für einen kurzen historischen Augenblick im Rampenlicht dieses Wandlungsprozesses. Er gestaltete die Reform der auf dem Höhepunkt ihrer Entwicklung angekommenen Gattung Madrigal mit, indem er das Moment des Klanglichen und des Linear-melodischen auf der Basis des Kontrapunkts neu interpretierte. Neben der Verwendung eingängiger, von den Zeitgenossen mit dem Prädikat der Leichtigkeit belegten Soggetti war es vor allem das Schaffen formaler Bezüge, die Verwendung von aus populären Gattungen wie Kanzonette und Villanella übernommener Elemente und das Einfügen von durch ihn häufig verwendeter musikalischer Topoi in die unterschiedliche Werke, womit Giovannelli den Geschmack seiner Zeit traf. In seinen Motetten differenziert Giovannelli deutlich nach Besetzung und Aufführungsanlass. Klanglich opulenter, homophon konzipierter Mehrchörigkeit stehen streng kontrapunktisch strukturierte Kompositionen gegenüber. Allen geistlichen Werken liegt jedoch das unmodifizierte Regelwerk der Modi zugrunde, deren Gültigkeit in der auch schon bei Palestrina angewendeten Form von Giovannelli niemals in Frage gestellt wird. Giovannellis Musik ist immer modal konzipiert, wobei sich der Modus traditionell in der Gestaltung der Soggetti und der formalen Anlage einer Komposition ausdrückt. So liegen die Veränderungen gegenüber seinen Vorgängern im Detail. Die Einbindung des modalen Spiels in ein formales Gesamtkonzept ist eines davon, die Verwendung der Modi und der mit ihnen verbundenen Klanglage nach den Anforderungen der Besetzung ein anderes. Die Arbeit umfasst neben dem Textteil ein vollständiges Werkverzeichnis mit Quellenangaben sowie druckfähige Übertragungen der meisten Werke Giovannellis (4 Bände).
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
Die vorliegende Arbeit vereint das Material von 54 Gräbern des bronzezeitlichen Tamassos, die in einem Zeitraum von 1889 bis 1995 ausgegraben wurden. Es ist daher verständlich, daß die verwertbaren Befunde heute qualitativ und quantitativ disparat vorliegen. Die Methodik der Ausgrabungen und die Art der schriftlichen Aufzeichnungen über diese Feldarbeit, die Auswahlkriterien für das Aufbewahren von Funden und deren überlieferte Beschreibung, die Grundlagen der Fundteilung sowie die Verwahrung und Registrierung des Fundgutes – all diese für die archäologische Arbeit grundlegenden Faktoren haben in den letzten einhundert Jahren wesentliche Veränderungen erfahren. Insofern war es notwendig, auf der Grundlage der verwertbaren Informationen möglichst einheitliche Prinzipien für die Darstellung der einzelnen Grabungsbefunde zu schaffen. Dieses Vorhaben ist nicht immer vollständig durchzuführen, da uns für die Ausgrabungen der Jahre 1889 und 1894 viele Informationen nicht mehr verfügbar sind. Ohnehin hat der Erstausgräber M. Ohnefalsch–Richter in diesen Jahren wesentliche Veränderungen bei seiner Fundaufnahme und Dokumentation vollzogen. Der heute erreichbare Erkenntnisstand ist ganz besonders davon abhängig, wohin die Objekte nach der Fundteilung gelangten, ob sie dort überhaupt als archäologischer Besitz aufbewahrt oder verschenkt bzw. verkauft wurden. Es ist außerdem nicht unwesentlich, wie die Sammlungen von Kypriaka in Deutschland durch die Wirren des zweiten Weltkrieges gebracht wurden. Schließlich ist von großer Bedeutung, welche schriftlichen Zeugnisse des Erstausgräbers, die sämtlich schon als Kriegsverlust galten, heute noch erreichbar oder rekonstruierbar sind. Diese Promotionsschrift wird in den nächsten Jahren in Zusammenarbeit mit H.–G. Buchholz zu einer eigenständigen Veröffentlichung der Prähistorie von Tamassos ausgebaut. Die vorliegende Teil faßt die bisher unpublizierten Funde des für die mittlere Bronzezeit zentralen Bereichs Tamassos–Lambertis incl. des westlichen Dorfrandes von Politiko zusammen, während die ebenfalls bemerkenswerten Nekropolen in den Gemarken Troulia und Kamara sowie die riesige spätkyprische Nekropole jenseits des Pediaios–Flusses der späteren Publikation überlassen bleiben. Dabei wird nur das Material bearbeitet, das mit einer gewissen Sicherheit einem bestimmten Grab zugewiesen werden kann.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
Die Wahrnehmung unterschiedlicher Tonhöhen ist entscheidend für die Funktion von Cochleaimplantaten bei gehörlosen Patienten. Eine Möglichkeit der Frequenzcodierung bei diesen Implantaten besteht in der elektrischen Reizung verschiedener Positionen in der Cochlea. In Hinblick auf die Implantation angeboren gehörloser Kinder stellt sich die Frage, ob auch ein naiver Cortex cochleotop gegliedert ist. Besteht die Notwendigkeit, die neuronalen Netze erst durch akustische Stimuli zu trainieren, oder ist die Ausbildung einer corticalen Tonotopie auch ohne akustische Reize möglich? Dies wurde modellhaft an kongenital gehörlosen weißen Katzen untersucht, die keinerlei Hörerfahrung besaßen. Diesen Katzen wurde unter Narkose ein humaner Reizelektrodensatz (Nucleus 22) durch das runde Fenster in die Scala tympani eingesetzt. Der Hörnerv wurde durch biphasische elektrische Impulse (200 Mikrosek. pro Phase) stimuliert. Die Reizorte in der Cochlea entsprachen bei normal hörenden Katzen apikal ungefähr 8 kHz (Implantatringe 1 und 2) und basal ungefähr 20 kHz (Ringe 7 und 8). Auf dem primären auditorischen Cortex (AI) wurden an verschiedenen Stellen mit Hilfe von Silber-Mehrfachelektroden Oberflächenpotentiale abgeleitet. Mit Hilfe selbstentwickelter Computerprogramme wurden Intensitätsfunktionen auf Basis der corticalen evozierten Potentiale mittlerer Latenz erstellt und an Sättigungsfunktionen angepaßt. Maxima und Dynamikbereiche wurden in Abhängigkeit von Cochleareizort und Cortexposition bestimmt. Ebenso wurden die Latenzen der Antworten gemessen und Schwellenfunktionen errechnet. Gehörlose weiße Katzen zeigten in akuten Versuchen bei elektrischer Reizung des Hörnervs corticale evozierte Potentiale, die in Aussehen und Latenz mit akustisch evozierten Potentialen normal hörender Katzen vergleichbar waren. Auf dem primären auditorischen Cortex fanden sich jeweils zu den Cochleareizorten korrespondierende Areale, die sich durch niedrige Schwellen, große Dynamik und große Maximalamplituden auszeichneten. Die größte Reaktion bei Elektrodenkombination 1/2 lag konstant 0.5-1.5 mm weiter caudal als bei Kombination 7/8. Die bei den gehörlosen Katzen gefundenen Beziehungen zwischen empfindlichen Cortexarealen und cochleärem Reizort sind mit denen normal hörender, akustisch stimulierter Katzen vergleichbar (z.B. Harrison et al., 1993; Rajan et al., 1993). Obwohl die untersuchten Katzen keinerlei Hörerfahrung besaßen, war bei elektrischer Reizung des Hörnervs eine deutliche corticale Tonotopie festzustellen, die sich sowohl in den Schwellenverläufen der Oberflächenpotentiale als auch im Dynamikbereich der angepaßten Intensitätsfunktionen zeigte. Eine cochleotope Organisation des primären auditorischen Cortex ist also auch ohne Hörerfahrung möglich.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
S. leicht übererarbeitete Version der Dissertation: Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
Memorialforschung hat Konjunktur, und dass die lebens- und literaturgeschichtliche Erinnerung in den Werken Peter Handkes eine Rolle spielt, ist bekannt. Daß aber Handke seit den 70er Jahren vor allem eine Gedächtniskunst projektiert und in immer neuen Versuchen auf den Weg bringt, wurde bislang nicht beachtet und ist Gegenstand dieser Untersuchung. Die Handkeschen Protagonisten, die allesamt aus den bürgerlichen Zusammenhängen herausfallen, suchen im Kanon der Geschichten und Bilder nach Vorstellungen des Lebens. Orientierung bieten Texte (oder auch nur Aussprüche) Goethes, Stifters, Homers, ferner Gemälde Cézannes oder Hoppers, Filme, mythologische und biblische Erzählmuster. Handke wiederholt jedoch nichts Überkommenes, er experimentiert damit. Seit "Der kurze Brief zum langen Abschied" (1972) fügt er Elemente der Tradition zu immer neuen Zeit-Räumen und Selbstentwürfen zusammen. Spätestens aber ab "Das Gewicht der Welt" (1977) steht dahiner die formulierte Absicht, "ein Gedächtnis für alle anderen" werden zu wollen. Neben der rhetorischen Textanalyse sieht sich die Arbeit der komparativen Kulturwissenschaft verpflichtet. Damit nähert sie sich ihrem Gegenstand auf zwei unterschiedlich gepflasterten Wegen, um die in Handkes Oeuvre vielfältig ausgebreitete Gedächtnisthematik herauszuarbeiten.
Ziel der vorliegenden Arbeit ist die Untersuchung inter- und intramolekularer Wechselwirkungen in Molekülkristallen, Ausgangspunkt sind die Kristallisation und Strukturbestimmung ausgewählter Modellverbindungen. Die einzelnen Fragestellungen werden durch geeignete Kombinationen sich ergänzender Analysenmethoden, umfangreichen Datenbank-Recherchen und quantenchemischen sowie Atompotential-Berechnungen zu beantworten versucht.
Zusammen mit anderen b 2 Sympathomimetika wird Terbutalin schon seit langem in der Behandlung chronisch obstruktiver Lungenerkrankungen (COLE) eingesetzt. Dabei wurde mehrfach von schweren unerwünschten kardialen Wirkungen nach der Anwendung von Terbutalin berichtet. Die Tatsache, daß die COLE in der Regel mit chronisch hypoxiegeschädigten Herzen assoziiert sind, gab Anlaß, die Auswirkungen von Terbutalin auf hypoxiebelastete isolierte Rattenherzen und deren Mitochondrien zu untersuchen. Dafür wurde das zunächst für 20 Minuten normoxisch arbeitende Rattenherz (working rat heart) einer fünfzigminütigen Hypoxiephase ausgesetzt, während der es mit Terbutalin in Konzentrationen zwischen 1,1 und 225,3 ng/ml perfundiert wurde (0,5, 1, 5, 10 und 100 nmol Terbutalin auf 100 ml Perfusionspuffer). Die Perfusionsgeschwindigkeit betrug 2 ml/min. Der Hypoxiephase folgte eine siebzigminütige Reoxygenierungsphase, in der in zehnminütigen Abständen das Herzminutenvolumen (HMV), die Herzfrequenz und der Koronarfluß dokumentiert wurden. Nach Abschluß der Reoxygenierungsphase wurden die myokardialen Mitochondrien isoliert, um die ATP Synthese und ATPaseAktivitäten sowie die Membranfluidität zu messen. Zusätzlich wurden zwei Versuchsreihen ohne Hypoxiephase durchgeführt (mit 1 und 100 nmol Terbutalin), um die alleinige Wirkung von Terbutalin auf die Rattenherzen zu untersuchen. Die Aortenflußmessung während der Reoxygenierung ergab eine generelle Reduzierung der Herzleistung im Vergleich zu den Kontrollherzen (ohne Terbutalinzugabe). Lediglich im 1 nmolVersuch (2,3 ng/ml) war zu Beginn der Reoxygenierungsphase eine signifikante Steigerung des HMV festzustellen. Jedoch hielt auch diese Steigerung nur für etwa zwanzig Minuten an. Alle anderen Versuchsreihen (mit 0,5, 5, 10 und 100 nmol Terbutalin) ergaben eine deutliche Verschlechterung der Herzleistung. Das HMV der Kontrollherzen betrug während der Reoxygenierung durchschnittlich etwa 75% des HMV vor der Hypoxiephase. Die Terbutalinherzen erreichten abgesehen vom 1 nmolVersuch, wo ein HMVMaximum von etwa 80% erreicht wurde, Aortenflußwerte, die zwischen 30% und 70% der Ausgangswerte lagen. Eine Besonderheit ergab sich beim 0,5 nmolVersuch. Hier fand sich eine Steigerung des Aortenflusses über den gesamten Verlauf der Reoxygenierung von etwa 48% auf 68%. Das Herz schien sich von einer anfangs starken Reduzierung des HMV wieder zu erholen. Bezüglich der Herzfrequenzen war eine weitgehende Korrelation zu den Herzminutenvolumina festzustellen, so daß eine Steigerung des HMV vermutlich Folge einer Herzfrequenzsteigerung ist und umgekehrt. Die Koronarflußmessungen ergaben eine Steigerung der Koronarperfusion, also eine Vasodilatation, ab einer Dosis von zwischen 1 nmol und 5 nmol Terbutalin. In höheren Dosen (10 nmol und 100 nmol) kam es zu einer deutlichen Reduzierung des Koronarflusses, was vermutlich auf die kardiotoxischen Wirkeigenschaften von Terbutalin zurückzuführen ist. Es zeigte sich also ein optimaler Wirkungsbereich, der zwischen 1 nmol und 5 nmol liegt. Die mitochondrialen Messungen ergaben eine generelle Reduzierung der ATPSyntheseAktivitäten (0,0150,03 µmol ATP/mg/min) und eine generelle Steigerung der ATPaseAktivitäten (0,71,65 µmol ADP/mg/min) im Vergleich zur Kontrolle (0,04 µmol ATP/mg/min bzw. 0,6 µmol ADP/mg/min). Dabei trat das ATPSynthese Aktivitätsmaximum bzw. das ATPaseAktivitätsminimum im 10 nmolVersuch auf. Die kleinste ATPSynthese Aktivität (0,015 µmol ATP/mg/min) wurde beim 1 nmolVersuch, wobei gleichzeitig das HMVMaximum erreicht wurde, gemessen. Es kann also von einem erhöhten Energiebedarf, der nicht durch eine gesteigerte ATPSyntheseAktivität gedeckt wird, ausgegangen werden. Vermutlich wird die ATPSynthese durch eine aufgrund hoher intramitochondrialer Kalziumspiegel gesteigerte Aktivität von ebenfalls H Gradienten abhängigen Kalziumcarriern kompetitiv' gehemmt. Die hohen intramitochondrialen Kalziumspiegel sind dabei eine Folge hypoxie bzw. reoxygenierungsbedingter Membrandefekte. Die Messungen der Membranfluidität ergaben keine nennenswerten Abweichungen von der Kontrolle. Dies ist ein Hinweis darauf, daß die kardiodepressiven Effekte nicht hauptsächlich auf hypoxiebedingte Mitochondrienmembrandefekte zurückzuführen sind, sondern viel wahrscheinlicher auf Terbutalinbedingte toxische Effekte. Die Experimente ohne Hypoxiephase ergaben mit 1 nmol Terbutalin (2,3 ng/ml) eine diskrete Steigerung des HMV, mit 10 nmol Terbutalin (22,5 ng/ml) eine deutliche Reduzierung. Dies läßt den Schluß zu, daß die kardiodepressive Potenz von Terbutalin durch zusätzliche Hypoxiebelastung verstärkt wird. Drei mögliche Mechanismen können für die kardiodepressiven Eigenschaften von Terbutalin verantwortlich gemacht werden. Zum einen führt eine hypoxiebedingte relative Überstimulation von bRezeptoren zur Entstehung von Sauerstoffradikalverbindungen, die zum Teil irreversible Zellschädigungen verursachen können. Die Entstehung von Sauerstoffradikalen wird durch die Reoxygenierung (oxidativer Streß) nach der Hypoxiephase noch verstärkt. Zum zweiten handelt es sich bei Terbutalin um einen partiellen Agonisten am bRezeptor. Vor allem in Verbindung mit oxidativem Streß, der durch die Reoxygenierung gegeben ist, wird die maximale Wirksamkeit partieller Agonisten reduziert, was sich auch auf die positiv inotropen Eigenschaften von Terbutalin auswirkt. Zum dritten kann von nicht über bRezeptoren vermittelten kardiotoxischen Effekten ausgegangen werden. Vermutlich ist eine dosisabhängige Kombination aller drei Mechanismen die Ursache für die Kardiotoxizität von Terbutalin. Es muß also von einer rezeptorvermittelten bmimetischen und von einer primär kardiotoxischen Wirkkomponente ausgegangen werden. In niedriger Dosierung (0,5 nmol) überwiegt die kardiotoxische Wirkkomponente, von deren Auswirkungen sich die Rattenherzen jedoch erholen konnten. Im 1 nmolVersuch war dann eine optimale Dosierung erreicht (1 nmol/100ml » 2,3 ng/ml), die gleichzeitig auch der effektiven Plasmakonzentration (beim Menschen) von Terbutalin entspricht. Hier überwiegt die bmimetische Wirkkomponente. In höherer Dosierung (10 nmol und 100 nmol) kommt es dann zur relativen Überstimulation von bRezeptoren, was zu den oben beschriebenen teils irreversiblen Myokardschäden führt.
Die zunehmend breitere Verwendung der Hydroxyethylstärke in immer höheren Dosierungen stellt die Frage nach ihrem Abbau und der Speicherung im Körper. Dazu wurde die Leber, als ein Organ mit bekannter Speicherung von Hydroxyethylstärke und als möglicher Abbauort, mit HES 200/0,5 künstlich perfundiert. Als Modell wurde die Wistar-Ratte gewählt, und als Kolloide zum Vergleich diente eine HES 450/0,7 und eine Gelatinelösung. Zur Differenzierung des Abbaus durch die Leber und des Plasmas wurde eine Reihe mit gewaschenen Erythrozyten als Sauerstoffträger, und ein Leerversuch ohne Leber durchgeführt. Durch die Leberperfusionen konnte gezeigt werden, dass ein Abbau in der Leber nur sehr langsam stattfindet. Weiterhin liess sich nur ein eingeschränkter Abbau der Hydroxyethylstärke mit mittlerer Substitution durch die a-Amylase zeigen, während er sich bei der hochsubstituierten HES überhaupt nicht nachweisen liess. Der Abbau der Hydroxyethylstärke ist nach anfänglich schneller Spaltung durch die a-Amylase und Ausscheidung durch die Niere anschliessend nur noch sehr langsam. Da in der Leber sowohl Hepatozyten als auch Zellen des RES vorhanden sind, scheint diese langsame Elimination auch für den Patienten zu gelten, nachdem alle nierengängigen Moleküle im Urin ausgeschieden wurden. Während diese langsame Elimination die mittelsubstituierte HES nur zum kleinen Teil betrifft, dürfte jedoch der grösste Teil der hochsubstituierten HES auf diese Art abgebaut werden. Dennoch ist wohl nur der Anteil der persistierenden Fraktion unterschiedlich, aber sowohl bei HES 200/0,5 als auch bei HES 450/0,7 scheint die persistierende Fraktion nicht nur ähnlich eliminiert zu werden sondern auch chemisch gleich zu sein. Sowohl hoch- als auch mittelsubstituierte HES können bei häufiger Applikation kumulieren. Ein Kolloid mit ähnlich positiven Eigenschaften, aber ohne persistierende Fraktion wäre für die Daueranwendung der Hydroxyethylstärke vorzuziehen.
Die Zahl der jährlich in der Bundesrepublik vorgenommenen Schwangerschaftsabbrüche wird auf weit über 250.000 geschätzt. Auf drei Lebendgeburten kommt somit ein Abbruch. Mit Hilfe eines Fragebogens und ergänzender Daten aus der Patientenkartei werden im Zeitraum vom 08.09.1994 bis 12.04.1996 103 Patientinnen im Alter von 16 bis 45 Jahren befragt, die eine Allgemeinarztpraxis in Südhessen zu einem Schwangerschaftskonfliktberatungsgespräch aufsuchen. Über 90 % der Frauen wohnen weniger als 20 km von der Praxis entfernt. Der Anteil der Verheirateten, Ausländer und Berufstätigen beträgt jeweils ca. 50 %. Über 80 % haben höchstens 2 Kinder. 64 % der Frauen haben zuvor noch keinen Abbruch durchführen lassen. Die Beratungsgespräche finden zu 69 % fünf bis acht Wochen nach der letzten Regelblutung statt. Knapp 60 % der Patientinnen führen keine sichere Verhütung durch. 57 % der Gründe, die zum Abbruch veranlaßten, waren soziale Notstände, Überforderung der alleinstehenden oder sich nicht reif genug fühlenden Mutter oder berufliche Gründe. Lediglich einer Patientin wurde im Falle des Austragens des Kindes Unterstützung durch ihr soziales Umfeld zugesagt. Nur 24 % sahen ihre finanzielle Situation, 37,5 % ihre Wohnverhältnisse als ausreichend an. In über 52 % der Fälle entstammt das Kind einer krisenhaften Partnerschaft. 17 % der Partner sind arbeitslos, 10 % befinden sich noch in der Ausbildung. Weniger als 13 % der Schwangeren werden zur Beratung von ihrem Partner begleitet. Außer bei sechs medizinisch indizierten Abbrüchen liegt bei fast allen Fällen eine komplexe, multifaktoriell bedingte, soziale Problematik oder eine soziale Notsituation vor. Entgegen den Inhalten der öffentlichen Diskussion, die meist auf juristischer Ebene geführt wird, befindet sich die Mehrzahl der Ratsuchenden in einer ambivalenten Konflikt und/oder Notsituation. Bezüglich der Konfliktsituation sollte der ungewollt Schwangeren geholfen werden, den zugrundeliegenden Konflikt selbst zu erkennen, um eine von ihr selbst verantwortbare und tragbare Konfliktlösung finden zu können. In sozialen Notsituationen sehen ungewollt Schwangere keine Alternative zum Schwangerschaftsabbruch. Staatlich zugesicherte Hilfen auch wenn sie durch Hilfeleistungen des sozialen Umfeldes ergänzt werden stehen in einem deutlichen Mißverhältnis zu den Bedürfnissen der Schwangeren. Ist die junge Mutter alleinstehend, so ist sie trotz staatlicher Zuwendungen nur sehr eingeschränkt in der Lage, für ihren und des Kindes Lebensunterhalt zu sorgen. In einer Partnerschaft oder Familie bringt die Geburt eines Kindes häufig den Verdienstausfall der Mutter mit sich, was die soziale Situation der Betroffenen erschwert. Um erweiterte Problemlösungsansätze erarbeiten zu können, wäre eine öffentliche Diskussion erforderlich. Sie müßte zum einen die Prävention (Sexualpädagogik, Antikonzeptionsaufklärung) fördern und zum anderen die realen Bedürfnisse ungewollt Schwangerer in Konfliktsituationen berücksichtigen, um ihre soziale Sicherheit und Integration in die Gesellschaft zu gewährleisten.
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
In der vorliegenden Arbeit beschäftigen wir uns mit der Frage, wie ein Regler für ein hochdimensionales physikalisch/technisches System strukturiert und optimiert werden soll. Diesbezüglich untersuchen wir einen neuen Ansatz, welcher versucht, Regel-Mechanismen des ökonomischen Marktes und Lern-Prozesse mit in den Regler einzubauen. Um eine anschauliche Vorstellung von der Wirkung des Reglers zu erhalten, wenden wir diesen auf ein einfaches physikalisches Model an, eine an ihren Enden eingespannte eindimensionale Federkette. Wir implementieren das Model auf einem Rechner und simulieren den Einfluß des Regelverfahrens auf die Bewegung der Kette. Dabei beschränken wir uns auf den Grenzfall kleiner Amplituden, um das System im Rahmen einer näherungsweise linearen Dynamik beschreiben zu können. Mit Hilfe eines schwachen destabilisierenden Zusatzpotentials erreichen wir, daß die niedrigen Eigenmoden der schwingenden Kette instabil werden und die ausgestreckte Kette eine instabile Gleichgewichtslage darstellt. Wir stellen uns die Aufgabe, diese unter Verwendung des Reglers zu stabilisieren. Anhand des Modells untersuchen wir den Einfluß verschiedener Anfangsbedingungen der Kette, den Einfluß der Markt-Regelung, den Einfluß verschiedener Kommunikationsstrukturen und den Einfluß des Lernverfahrens auf die Wirksamkeit und die Robustheit des Regelprozesses. Als wichtigstes Ergebnis erkennen wir, daß die Regelung mit dem Markt robuster im Vergleich mit der Regelung ohne Markt ist, aber im allgemeinen einen höheren Regel-Energieaufwand aufweist. Untersuchungen anhand des Lernverfahrens ergeben, daß sich das Lernen der Markt- und der Kommunikationsstruktur kombinieren läßt und dadurch die Wirksamkeit der Regelung gegen über der Verwendung von nur einem der beiden Lern-Ansätze erhöht werden kann. Unsere Ergebnisse zeigen, daß sich das Markt-Konzept vollständig auf den gegebenen technischen Regelprozeß übertragen läßt. In der Diskussion der Ergebnisse führen wir die erhöhte Robustheit und den erhöhten Energieaufwand der Markt-Regelung auf eine indirekte, nichtlineare Kopplung der Regeleinheiten zurück, die der Markt-Mechanismus in den Regelprozeß einführt. Die Nichtlinearität bewirkt, daß die von dem Regler bestimmten Regelkräfte bei kleinen Kontrollfehlern relativ größer sind als bei großen Kontrollfehlern. Daduch ist der Energieaufwand der Markt-Regelung bei kleinen Kontrollfehlern gegenüber der Regelung ohne Markt erhöht. Der Regler ist damit in der Lage, die Kette auch bei dem Ausfall einer Regeleinheit zu stabilisieren, da ausreichend große Regelkräfte durch die verbleibenden Regeleinheiten ausgeübt werden. Die Kopplung von benachbarten Massenpunkten durch Federn unterstützt die Robustheit der Regelung in dem untersuchten Ketten-Modell, da die Kopplung dazu führt, daß die Massenpunkte eine zur instabilen Gleichgewichtslage rücktreibende Kraft erfahren und dadurch in den Bereich von kleinen Kontrollfehlern und relativ hohen Regelkräften gelangen. Am Ende der Diskussion gehen wir kurz auf mögliche Anwendungen der gewonnen Ergebnisse ein. Dabei haben wir besonders technische Regelprozesse im Sinne von Smart Matter (intelligente Bauteile) im Auge.
Jakob Nussbaum 1873 - 1936
(1998)
Jakob Nussbaum gehört zu den kulturpolitischen Persönlichkeiten der zwanziger Jahre des vergangenen Jahrhunderts. Als Maler in München und Ungarn ausgebildet und inspiriert von der Berliner Secession arbeitete er vorwiegend in Frankfurt. Von 1900 bis zu seiner Auswanderung nach Palästina 1933 gestaltete Nussbaum das Frankfurter Kulturleben aktiv mit. So leitete er zehn Jahre lang den Frankfurter Künstlerbund, die sogenannte Frankfurter Secession, ein Forum für modern orientierte Künstler. Auch als Lehrer an der Städelschule machte er seinen Einfluß geltend. Nussbaums zahlreiche Porträts von Persönlichkeiten des öffentlichen Lebens dokumentieren die Zeitgeschichte, ebenso wie seine für die Stadthistorie bedeutenden Frankfurt-Ansichten. Der Künstler, der eng mit Max Liebermann befreundet war, wird gerne als der Frankfurter Impressionist bezeichnet. Doch weist Nussbaums Werk unterschiedliche stilistische Tendenzen auf, die seine Auseinandersetzung mit dem aktuellen Kunstgeschehen über drei Jahrzehnte hinweg widerspiegeln. Ziel der Arbeit ist es vor allem gewesen, zunächst das Werk Nussbaums zusammenzutragen. Sodann wurden die für Nussbaum spezifischen Merkmale seines Schaffens herausgearbeitet. Hierbei wurde die komparative Methode angewandt, also Nussbaums Schaffen und Werk mit dem seiner Zeitgenossen verglichen. Letztlich unternimmt diese Arbeit den Versuch der kunstgeschichtlichen Einordnung und Würdigung des Werkes des Künstlers. Die Arbeit liegt in drei Bänden vor: 1. Textband mit Abbildungen. 2. Materialband – wobei die hier aufgeführten Verzeichnisse zur Literatur, zu den verwandten Abkürzungen und zu den Ausstellungen des Künstlers für alle drei Bände dieser Arbeit gelten. 3. Catalogue Raisonné mit einem Verzeichnis der von Nussbaum porträtierten Personen. Hierdurch konnten dem Leser der Zugang zu dieser Arbeit erleichtert und Wiederholungen umfangreicher Teile der Arbeit vermieden werden. Insbesondere sind bei den Abbildungen im Textband vereinfachend bei Werken des Künstlers nur Titel, Erscheinungsjahr und Katalognummer angegeben. Bei Werken anderer Künstler werden Name, Titel und Entstehungsjahr vermerkt. Außerdem sind sie noch einzeln in einer Liste am Ende des Textes aufgeführt, in welcher auch die Abbildungsnachweise verzeichnet sind.
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Wir untersuchten über einen Zeitraum von 5 Jahren 40 Patienten, bei denen die Diagnose einer Achalasie nach etablierten Kriterien gesichert worden war hinsichtlich der Effektivität und der Nebenwirkungen einer pneumatischen Dilatation mit einem neuartigen "Low - Compliance" Ballonsystem. Alle Patienten wurden vor, 4 - 6 Wochen und abschließend im Mittel 28 ± 15 Monate nach der pneumatischen Dilatation untersucht. Die pneumatische Dilatation erfolgte entweder unter Verwendung eines 30 oder 35 mm Ballonsystemes, abhängig von vorher festgelegten Kriterien. Zusätzlich konnte bei 12 dieser Patienten, vor - und im Mittel 26 ± 15 Monate nach der pneumatischen Dilatation, eine ösophageale pH - Messung durchgeführt werden. Insgesamt wurden 52 Dilatationen mit einer durchschnittlichen Dilatationszeit von 4 Minuten durchgeführt. Ein initialer Erfolg nach einmaliger pneumatischer Dilatation konnte bei 35 Patienten (87,5%) erreicht werden. Die übrigen 5 Patienten sowie weitere 7 Patienten, bei denen eine Dysphagie erneut auftrat, wurden ein zweites Mal dilatiert. Die beiden Patienten, bei denen auch nach dieser zweiten Dilatation noch deutliche Symptome bestanden, wurden einer operativen Kardiomyotomie zugeführt (Operationsfrequenz = 5%). Die Effektivität der Dilatation wurde durch eine signifikante Verringerung der klinischen Symptomatik dokumentiert. So verringerte sich der Symptomen - Score (1-14 Punkte) von 9,9 ± 2,1 Punkte vor pneumatischer Dilatation, auf 4,9 ± 2,4 Punkte 4-6 Wochen nach pneumatischer Dilatation und auf 4,9 ± 2,4 Punkte bei der Abschlußuntersuchung (p< 0,01). Der Ruhedruck des unteren Ösophagussphinkters konnte durch die Dilatation von 28,3 ± 0,8 mmHg auf 16,4 ± 6,4 mmHg nach Dilatation und weiter auf 14,7 ± 5,5 mmHg bei der Abschlußuntersuchung, gesenkt werden (p< 0,01). Weder der radiologisch bestimmte Durchmesser des tubulären Ösophagus, noch die manometrisch fassbaren Kontraktionsamplituden im tubulären Ösophagus wurden durch die pneumatische Dilatation signifikant beeinflußt. Betrachtet man die Nebenwirkungen, so zeigte die Langzeit pH - Metrie eine deutliche Erhöhung der Anzahl, sowie der Dauer der gastroösophagealen Refluxepisoden, mit einem pH < 4 nach der pneumatischen Dilatation. Konträr zu diesen Ergebnissen klagte allerdings nur ein Patient über Sodbrennen. Bei einem weiteren Patienten konnte, obwohl dieser keine Beschwerden angab, endoskopisch eine Ösophagitis Grad I gesichert werden. Es wurde eine Perforation beobachtet, eine operative Versorgung des Patienten war jedoch nicht erforderlich. Diese Ergebnisse zeigen, daß die pneumatische Dilatation mit dem "Low - Compliance" System eine adäquate Behandlungsmethode der Achalasie darstellt, die sich jedoch hinsichtlich ihrer Kurz - und Langzeiteffektivität nicht wesentlich von den bisher verwendeten Systemen unterscheidet.
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Im Rahmen der vorliegenden Arbeit wurden alle UAW-Verdachtsfallberichte nach Anwendung von Impfstoffen, die dem Paul-Ehrlich-Institut im Zeitraum von 1987 bis 1995 zugingen, nochmals aufgearbeitet und für jeden Impfstoff ein Nebenwirkungsprofil (PEI-UAW-PROFIL) erstellt. In diesem Zusammenhang wurden die derzeit gebräuchlichen Systeme zur Arzneimittelüberwachung und Kausalitätsbewertung vorgestellt und diskutiert. Alle derzeit von der ständigen Impfkommission (STIKO) empfohlenen Schutzimpfungen wurden kurz beschrieben und die verfügbaren Impfstoffe mitsamt ihres UAW-Profils charakterisiert. Abschließend wurden Möglichkeiten der Optimierung des derzeit gebräuchlichen passiven Spontanerfassungssystems aufgezeigt.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.
Der Weltfrieden hängt heute mehr denn je von der Kommunikation zwischen den Menschen unterschiedlichster Kulturen ab. Jenseits der Dialoge des Westens und Ostens, des Nordens und Südens liegt das Dynamit von interkulturellen Konflikten. Obgleich zumeist lokal begrenzt, zerreißen sie mit ihrer Sprengkraft Blöcke. Kriege, Entkolonialisierungskämpfe, ökologische und soziale Krisen können ab dem 20. Jahrhundert unversehens ein globales Ausmaß annehmen. ...
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.