Refine
Year of publication
Document Type
- Doctoral Thesis (3641) (remove)
Language
- German (3641) (remove)
Has Fulltext
- yes (3641) (remove)
Is part of the Bibliography
- no (3641)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1401)
- Biochemie und Chemie (447)
- Biowissenschaften (409)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (99)
- Gesellschaftswissenschaften (96)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Verdunstungsstudien
(1930)
Mit Hilfe von Apparaten wird es wohl niemals gelingen, die tatsachliche Verdunstung bestimmter Landflächen zu bestimmen, so wichtig eine derartige Ermittlung im Hinblick auf Klimaforschung, Wasserhaushalt der Erde und dergleichen sein mag. Es wurde daher schon aud die verschiedensten Arten versucht, wenigstens ein relatives Maß der Verdunstung - die sogenannte Verdunstungskraft zu bestimmen. Freie Wasserflächen für eine derartige Untersuchung zu verwenden, wäre das Einfachste ; jedoch sind hierbei die Möglichkeiten einer Störung besonders groß infolge von Einflüssen, die die gemessene Verdunstungskraft verändern, und so Fälschungen der Messungen verursachen. Es seien hier nur die Störiingon durch Regen, den Rand der Schale, Verunreinigungen der Oberflache und durch Wellenbildung erwähnt. Darum scheint es vorteilhafter, wie bereits Babinetl 1848 vorschlug, für derartige Messungen statt der freien Wasserfläche einen porösen Tonkörper zu verwenden. Mitscherlich und Livingstone begannen dann ziemlich gleichzeitig 1904 mit derartigen Tonkörpern zu arbeiten, und Livingstone trat bald mit seinen vor allem für die Botanik wichtigen Ergebnissen hervor. Aufgabe des Meteorologen ist, eine Methode zu schaffen, die eine stets wiederholbare Messung ermöglicht; jedoch muß man sich dessen befaßt sein, daß solche Messungen keinesfalls die Verdunstungswerte der Erdoberfläche mit oder ohne Vegetation oder die Wasserabgabe des Menschen angeben. Das Verhältnis dieser, der "natürlichen" Verdunstungswerte, zu dem durch jene im folgenden erörterte - Methode gefundenen "physikalischen" Werte bedarf noch der Ermittlung. Über die Sondergebiete der Verdunstung liegen bereits zahlreiche Arbeiten vor. In dieser Arbeit wird zuerst die verwendete Apparatur und die Meßanordnung besprochen, dann der Einfluß des Windes, der Temperatur und des äußeren Dampfdruckes auf die Verdunstung untersucht. Darauf wird die durch die Verdunstung selbst erzeugte Ventilation, die "Grundventilation" behandelt. Es schließt sich die Ermittliing des Strahlungseinflusses und die Eignung des Apparates zu Strahlungsmessungen an, und zum Schluß werden Vergleichsmessungen mit anderen Apparaten angeführt.
Inhalt:
Widmung
1-37 I. Kapitel: Die Abhebung der ästhetischen von der moralischen Deutung der Kunst
38-64 II. Kapitel: Die Systematik der Künste
65-71 Zwischenbemerkung: Über das ästhetische Verhalten, den Wahrheitsgehalt der Kunst und die ästhetischen Kategorien
72-96 III. Kapitel: Die Geschichtsphilosophie der Kunst
97-111 IV. Kapitel: Die Wandlung in der Auffassung der Kunst von der "Geburt der Tragödie" bis zu "Menschliches - Allzumenschliches"
113-114 Literaturverzeichnis
Lebenslauf
1. Es liegt auf Grund zahlreicher Beobachtungen und Untersuchungen kein Grund vor, an dem Bestehen des Zusammenhanges dentaler Erkrankungen mit Augenerkrankungen zu zweifeln; es bestehen sowohl Zusammenhänge per continuitatem als auch auf dem Blut- und Lymphwege (Fokalinfektion), es ist jedoch zurzeit unmöglich, den wissenschaftlichen Beweis für den Zusammenhang zu erbringen. 2. Besonders verdächtig im Sinne der Fokalinfektion erscheinen einseitige Erkrankungen. 3. Bei Verdacht auf Oralsepsis gilt für den Augenarzt; Gründliche Untersuchung durch den Zahnarzt, der nicht nur die Zähne, sondern auch die Zahnlücken zu beachten hat.
Die deutschen Hohlglashütten wurden im August 1933 zu einem Zwangskartell zusammengeschlossen . Die dabei zu überwindenden Schwierigkeiten bestanden vornehmlich in der Verschiedenartigkeit der erstellten Erzeugnisse und in dem besonders ausgeprägten Hang zur Selbständigkeit der in diesem Industriezweig weitaus überwiegenden Mittelbetriebe. Darüber hinaus stieß die Durchführung der Preisordnung infolge der Rückständigkeit des Rechnungswesens der einzelnen Hütten auf nahezu unüberwindbar erscheinende Widerstände. Es mangelte und mangelt noch heute durchweg an brauchbaren Kalkulationsunterlagen und damit an der Möglichkeit einer einwandfreien Ermittlung des Erfolges bzw . Verlustes und seiner Quellen...
Schon im ersten Weltkrieg, besonders aber seit dem Ausbruch der Weltwirtschaftskrise und erst recht im zweiten Weltkrieg hat der öffentliche Kredit in finanz- und wirtschaftspolitischer Hinsicht eine Bedeutung erlangt, wie nie zuvor. Er, der ehedem fast nur ein außerordentliches Mittel zur Überwindung vorübergehender finanzieller Schwierigkeiten des Staates gewesen war, entwickelte sich in dieser Zeit zu einem wirtschaftspolitischen Faktor ersten Ranges, ohne dessen Mitwirkung eine erfolgreiche Finanz- und Wirtschaftspolitik heute kaum denkbar ist. Besonders die durch den zweiten Weltkrieg geschaffene Zwangslage nötigte die einzelnen Volkswirtschaften, die durch ihn gebotenen finanz- und wirtschaftspolitischen Möglichkeiten in jeder Weise bis zur Grenze des absolut Möglichen auszuprobieren. Die konjunkturaktive öffentliche Kreditpolitik jener Zeit war von Anfang an kein einheitliches Ganzes, sondern entwickelte sich zu einem geschlossenen wirtschafts- und finanzpolitischen System erst allmählich aus verschiedenen wirtschafts- und finanzpolitischen Einzelmaßnahmen. Sinn und Zweck dieser Arbeit ist es nun, rückschauend auf diese Entwicklung das Grundsätzliche dieser Politik herauszuarbeiten. Ihr besonderer Schwerpunkt liegt dabei auf der Beantwortung der Fragen, inwieweit eine staatliche konjunkturaktive Kreditpolitik ein Heilmittel ist, um einen wirtschaftlichen Schrumpfungsprozess zum Stillstand zu bringen, inwieweit ein Reizmittel, um die wirtschaftliche Entwicklung voranzutreiben und inwieweit ein Gift, das schließlich den Ruin von Marktwirtschaft und Finanzwirtschaft herbeiführt.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Wir ermittelten die Geschwindigkeitskonstanten sowie die Arrhenius sehen Aktivierungsenergien und Aktionskonstanten der alkalischen Hydrolyse einer Reihe von Di- und Tripeptiden. Die zur Gewinnung der kinetischen Daten führende quantitative Analyse der Hydrolysate gelang, indem die Peptide vor ihrer Hydrolyse geeignet mit 14C markiert, die Hydrolysate mit Hilfe der Papierchromatographie bzw. der Zonenelektrophorese getrennt und die isolierten Hydrolyseprodukte auf Grund ihrer Radioaktivität quantitativ bestimmt wurden.
Der zeitliche Verlauf der alkalischen Hydrolyse von Di- und Tripeptiden wird durch ein Zeitgesetz 1. Ordnung bezüglich des Peptids und bezüglich der Hydroxylionen dargestellt. Die Abstufungen der Aktivierungsenergien, die den einzelnen Peptidbindungen in Di- und Tripeptiden zugeordnet sind, lassen sich durch die Annahme deuten, daß die Hydrolyse nach dem BAC 2-Mechanismus verläuft. Die Aktionskonstanten wachsen, wenn auch nicht regelmäßig, mit den Aktivierungsenergien.
Beiträge zur Erweiterung der Hückel'schen Theorie der π-Elektronensysteme [Pi-Elektronensysteme]
(1963)
Beiträge zur Erweiterung der Hückel'schen Theorie der Pi-Elektronensysteme Hückel entwickelte 1931 ein Verfahren zur quantenmechanischen Berechnung zahlreicher Eigenschaften von zr-Elektronensystemen. Obwohl die Theorie halbtheoretisch ist, hat sie einen wesentlichen Beitrag zum Verständnis solcher Eigenschaften von ungesättigten und aromatischen Verbindungen geliefert, die dem Grundzustand der Moleküle zugeschrieben werden können, so z. B. der Resonanzstabilität und der Reaktivität. Doch ist sie nur in der Lage, die Eigenschaften dieser Verbindungen richtig zu beschreiben, die durch angeregte Zustände der Moleküle mitbestimmt werden, wie z. B. die Spektren, wenn man für das Resononanzintegral einen entsprechenden Wert verwendet, der von dem für den Grundzustand benutzten bedeutend abweichen kan. Im ersten Abschnitt der vorliegenden Arbeit wird die Hückel'schen Theorie der Pi-Elektronensysteme diskutiert. Einen nur annähernd vollständigen Überblick über die Beiträge zu dieser Theorie zu geben, würde den Rahmen der Arbeit überschreiten. Daher wurde sich im Wesentlichen darauf beschänkt, die Grundgedanken und die Näherungen des Verfahrens klar darzustellen und kritisch zu betrachten, sowie die Anwendungsmöglicheiten zu beschreiben. Hartmann hat 1960 eine Erweiterung der Hückel 'schen Theorie vorgeschlagen, die auch solche Eigenschaften ungesättigter und aromatischer Verbindunsen richtig erfaßt, die aur der Beteiligung angeregter Zustände beruhen, wie am Beispiel der Spektren gezeigt wurde. Im zweiten Teil dieser Arbeit wird die Hückel-Hartmann'sche Theorie der Pi-Elektronensysteme dargestellt und die Ergebnisse mit denen der Hückel'schen Theorie verglichen. Hartmann selbst hat die Erweiterung nur für gleichatomige Pi-Elektronensysteme und unter zahlreichen Vernachlässigunen durchgeführt. Dieser Umstand und die wenigen zu der Theorie erst vorliegenden Arbeiten ließen es wünschensert erscheinen, die Hückel-Hartmannsche Theorie der Pi-Elektronensysteme systematisch und in möglichst allgemeiner Form zu diskutieren. Im dritten Abschnitt der Arbeit wird daher eine Generalisierung der Hückel-Hartmannt'schen Theorie durchgeführt. Mit Hilfe des entwickelten Verfahrens wird anschließend der Einfluß der Überlappungen auf die Ergebnisse untersucht und eine Erweiterung der Hückel-Hartmann'schen Theorie auf heteroatomare Pi-Elektronensysteme angegeben.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
1. Das Dissoziations- und Reaggregationsverhalten von Epidermiszellen der Larven von Xenopus laevis wird unter verschiedenen Bedingungen in vitro mit Hilfe des Zeilrafferfilmes untersucht. Die Kultur der Schwänze erfolgt in Salzlösung nach STEINBERG und Serum hämolysierten Kälberblutes. Für die Reaggregation werden serumfreie Salzlösungen verwendet. 2. Am Auswandern der Zellrasen beteiligen sich alle dem Deckglas anliegenden Zellen. Sie bilden einen Plasmasaum in die Richtung aus, in der sie sich fortbewegen. Der Zusammenhalt zwischen den Zellen wird hierbei nicht gelöst. 3. Die Zellrasen lassen sich mit 0;05%igem EDTA in Einzelzellen auflösen; dabei tritt eine Trennung des Zellplasmas in ein zentral gelegenes granuliertes Plasma und einen hyalinen Plasmasaum auf. Bei längerer Einwirkung des EDTA werden die hyalinen Säume eingezogen. Die Zellen sind dann abgekugelt; es brechen blasenförmige "Lobopodien" aus den Zellen hervor und verschwinden wieder: "Blubbern". 4. In Gegenwart von Ca++ breiten sich die Zellen wieder auf dem Deckglas aus. Die Bildung "stabilisierter Aggregate" erfolgt in Ringerlösung (mit 0,02% CaCl2), in isotonischer Calciumchlorid-Lösung, in isotonischer Kochsalz- und Kaliumchlorid-Lösung, wenn Calciumchlorid mindestens 0,02%ig enthalten ist. Es wird angenommen, daß die einwertigen Kationen für die Zellbewegung und Reaggregation nur als Ladungsträger wirksam sind. In KCN-haltiger (2,5 X 10-3 M) und in PCMB-haltiger (2,5 X 10-3 M) Ringerlösung ist ebenfalls Reaggregation möglich. Unter dem Einfluß von PCMB ist die Stabilisierung der Zollgrenzen jedoch nicht von Dauer. Die Aggregate werden wieder aufgelöst; die Zellen zeigen keine Kontakthemmung mehr, sie wandern übereinander. 5. Wird das Calciumchlorid der Ringerlösung durch die äquimolare Menge Magnesiumchlorid ersetzt, so werden die Kontakte nicht stabilisiert, sondern "sliding sheets" gebildet. Keine Reaggregation ist in Calcium-haltiger Natrium- oder Kaliumchlorid-Lösung einer Konzentration unter 0,33 M und in Ringerlösung unter pH 4,0 möglich. Die Zellen sind dann auch zu keiner Ortsbewegung mehr fällig. Selbst kurze (3 min) Trypsinbehandlung (2%) verhindert die Reaggregation der Zellen im serumfreien Medium. 6. Besonders die Versuche zur Störung des Energiehaushaltes der Zellen legen nahe, daß die dabei zu beobachtenden Viskositätsänderungen im Hyaloplasmasaum auf einer Änderung des Kontraktionszustandes in ihm enthaltener kontraktiler Proteine beruhen. Die Auswirkungen von PCMB, niederem pH und geringer Ionenstärke deuten auf die Beteiligung eines Membranpotentials an der Steuerung der Viskositätsänderung hin. Diese Hypothese wird zu Ergebnissen der Muskelphysiologie in Beziehung gesetzt.
The formation of aliphatic α-amino acids by X-ray induced carboxylation of simple amines or amination of simple carboxylic acids is not favored over the formation of other amino acids. The new carboxylic and amino groups are more or less distributed statistically over the carbon atoms of the starting material. On radiationchemical formation of aliphatic hydrocarbons over C3, therefore, an increasing amount of unusual amino acids is produced. The results are influenced by various parameters such as temperature, pH, concentration, linear energy transfer and total dosis of radiation applied. Also peptides can be formed radiationchemically. However, the formation of greater molecules by radiationchemical processes under the conditions of a primitive earth seems to have only a low probability. The reaction mechanisms of radiationchemical carboxylation and amination are discussed.
Das vorliegende Dissertationsthema ist aus einem ehemaligen Hauptreferat über das deutsche Städtewesen im Investiturstreit hervorgegangen, das ich 1961/62 bei Prof. W. Lammers in Hamburg anfertigte und das ich bei ihm in Frankfurt a. M. ab 1965 als Dissertationsthema für Worms bearbeitete, nun mit Berücksichtigung des Münz-, Handels- und Verkehrswesens sowie des Judentums, dann 1971 fertigstellte und abgab, sowie 1972 die zugehörige Prüfung bestand.
Die vorgeschriebene Drucklegung verzögerte sich allerdings erheblich, da mir seit 1974 die dienstlichen Forschungsarbeiten an der Universität Kiel (SFB 17 A 7 und A 3) keine Zeit ließen für die nötige Umarbeitung meines Themas, die ich erst nach dem Ende des SFB (1983/85) erhielt. Demgemäß arbeitete ich seitdem auf Gutachterwunsch an einer stark gekürzten Neufassung meines Wormser Themas und an einer erweiterten Neufassung für die Städte Worms, Mainz, Speyer und Köln unter Einbeziehung der Siegel- und Münzkunde sowie der Archäologie. Dadurch wurde aber der Arbeits- und Zeitaufwand ganz beträchtlich vergrößert und die Fertigstellung verzögert, zumal archäologisch-historische Auftragsarbeiten (zuletzt für das Archäologische Landesamt Schleswig 1997–2002) sie mehrfach länger unterbrachen, so daß ich beide erst nach dem Eintritt in den Ruhestand (Frühjahr 2003) vollenden konnte. Beide Textfassungen sind also vom Sommer 2003 bis zum Sommer 2005 aufgrund der genannten Vorarbeiten hergestellt worden. ...
Die kyprischen Grabreliefs
(1974)
Diese Arbeit verfolgte zwei Zielsetzungen. Zum einen sollten die bislang nur verstreut und unzureichend oder überhaupt nicht publizierten antiken Grabreliefs von Kypros im Sinne des Pfuhlschen Corpus möglichst geschlossen vorgelegt werden. Zum anderen waren die Eigentümlichkeiten dieser Gattung zu untersuchen. Diese ergaben sich aus dem Wesen der kyprischen Kultur, einer Randkultur, die wechselnden kulturellen Einwirkungen ausgesetzt war. Seit dem späteren 6. Jh. v. Chr. gewinnt der griechische Einfluß langsam an Boden. Gleichzeitig sind Einflüsse aus dem syrischen und phönikischen Bereich wirksam. Die kyprischen Grabreliefs weisen einige stilistische Besonderheiten auf, die teilweise als Ausdruck des überwiegend provinziellen Charakters der kyprischen Kunst zu werten sind. Die Neigung zur Frontalität ist stark ausgebildet. Das Verständnis für räumliches Empfinden ist unterentwickelt. Dementsprechend sind die Figuren häufig unplastisch, die ist Gewandfältelung überwiegend mit graphischen und nicht mit plastischen Mitteln gebildet. Unverkennbar ist eine konservative Grundeinstellung. Dies kommt am deutlichsten in dem langen Fortbestehen eines subarchaischen Stils, in der unveränderten Tradierung der Gelagereliefs, überhaupt in dem Festhalten an einmal eingeführtem Formengut zum Ausdruck. Daneben sind noch drei spezielle Phänomene hervorzuheben: 1. Das Gelagerelief. Es macht fast die Hälfte der erhaltenen Grabreliefs aus. Es ist seit dem frühen 5. Jh. v. Chr. für Golgoi typisch und findet auch außerhalb von Kypros keine Parallelen. Seine geistigen Wurzeln sind zweifelsfrei im späthethitischen und syrischen Bereich zu suchen, ikonographisch ist es möglicherweise aus der phönikischen bzw. syrischen Ikonographie abzuleiten, nicht jedoch vom griechischen Totenmahlrelief. Stockwerkstele und Löwenbekrönung sind mit dem Gelagerelief verbunden. 2. In Marion zeigt sich im ausgehenden 5. und 4. Jh. v. Chr. ein anderes Phänomen. Hier war der griechische Impuls von ausschlaggebender Bedeutung. Alle von griechischen Künstlern gearbeiteten Reliefs stammen aus Marion. Auch die von einheimischen Künstlern nach griechischen, d.h. überwiegend nach attischen, vereinzelt aber auch nach jonischen Vorbildern gearbeiteten Reliefs kommen bis auf wenige Ausnahmen aus dem weiteren Umkreis von Marion. Demzufolge ist für diese Stadt eine wichtige Rolle im Hellenisierungsprozeß der kyprischen Plastik zu vermuten. 3. Der runde, schlanke, mit Basis und Kapitell versehene Grabaltar ist die Grabmalform der Kaiserzeit. Im ihm liegt eine kyprische Sonderform des Grabaltars vor. Gelegentlich ist auf dem Säulenkörper die Büste des Toten in einer Rundbogennische angebracht. In der Zeit, der die kyprischen Grabreliefs angehöhren, nahm die kyprische Kunst zahlreiche Impulse verschiedener Art von den Nachbarkulturen auf. Zu einem ebenso starken gegenseitigen Austausch kam es aber nicht. So blieben auch die an den Grabreliefs zu beobachtenden Eigen- bzw. Weiterentwicklungen auf Kypros beschränkt.
Ziel dieser Arbeit ist es, einen Überblick über die Verhaltensweisen zoolebender Zwergschimpansen (Pan paniscus Schwarz 1929) zu geben. Dabei nimmt die Beschreibung des Sozialverhaltens eine zentrale Stellung ein. Dieser Aspekt ist von besonderem Interesse, weil die Zwergschimpansen oder Bonobos durch eine regelmäßige Überflutung großer Teile ihres Lebensraumes zu einer stärker arborealen Lebensweise gezwungen sind (s. HOFW 1975) als die zweite Schiopansenart, Pan troglodytes. Das läßt neben morphologischen auch ethologische Anpassungen an ein Baumleben erwarten, und zwar sowohl in Bereichen wie Lokomotion etc.. als auch in Bezug auf das Sozialverhalten. Gerade auf diesem Gebiet aber ist unser ohnehin bruchstückhaftes Wissen über die Ethologie des Bonobo besonders gering....
Komplexität und Zufälligkeit
(1978)
Anknüpfend an Untersuchungen von Nachwirkungserscheinungen vor allem an der Taenia coli des Meerschweinchens, bei denen Nachdehnung und Relaxation mit einer Hyperbelfunktion beschrieben wurden, gehörte es zu den Zielen dieser Arbeit, Gesetzmäßigkeiten im zeitlichen Verlauf der Nachdehnung bei dem anders strukturierten Uterushorn in verschiedenen Badlösungen zu untersuchen und insbesondere zu prüfen, ob die Hyperbelfunktion auch darauf angewendet werden kann und welche Rückschlüsse auf die funktionelle Struktur möglich sind.
Nach Voruntersuchungen an 30 Uterushörnern, bei denen auch Fragen der Tierwahl und der Standardisierung des Hormoneinflusses untersucht wurden, folgten nach ausführlicher biomathematischer Planung Hauptuntersuchungen an 58 Uterushörnern. Ein weiteres Ziel der Arbeit, eine wesentliche Verbesserung der Datenerfassung, konnte durch Einsatz eines Kurvenfolgers in Verbindung mit einer EDV-Anlage und eigenen Datenerfassungsprogrammen erreicht werden, wobei besonderer Wert darauf gelegt wurde, die Reproduzierbarkeit der Datenerfassung näher zu untersuchen, um die erzielte Genauigkeit, die höher als bei allen vergleichsweise zitierten Arbeiten liegt, nachprüfbarangeben zu können. Die erweiterten Möglichkeiten der Datenerfassung lieferten den Anstoß zum Erkennen von Problemen in der bisher üblichen Form der Datenauswertung, der Wertestandardisierung und der Nachdehnungsdefinition; hierfür konnten Lösungswege erarbeitet werden: u.a. ein EDV-Programm zur iterativen Hyperbelanpassung, Definition neuer Nachdehnungsgrößen und eine Aufgliederung in eine modellunabhängige und eine modellabhängige Auswertung.
Nach einem ausführlichen Überblick Uber die Physiologie glatter Muskulatur unter den Aspekten von Funktion und Struktur sowie einer Auseinandersetzung mit dem Begriff des Modells erfolgte eine zusammenfassende Datenauswertung: eine univariate Mehrwegkovarianzanalyse bestätigte nicht nur die Bedeutung des Faktors „Badlösung”, sondern ermöglichte auch unerwartete Aussagen über Kovariablen und Wechselwirkungen, die in früheren Arbeiten nicht in die Fragestellungen mit einbezogen worden waren; iterative Kurvenanpassungen zeigten die Überlegenheit mehrerer einfacher logarithmischer und exponentieller Funktionen im Vergleich zur Hyperbelfunktion. Außerdem waren Vergleiche zwischen verschieden strukturierten Muskeln und zwei Tierarten möglich.
Aus den gewonnenen Ergebnissen werden einige Schlußfolgerungen gezogen und Deutungen für die funktionelle Struktur des glatten Muskels gegeben.
Das Kniegelenk besitzt hohe Morbidität. Hierbei stellt das Femoropatellargelenk (FPG) häufig den Ausgangspunkt von Affektionen dar. Neben erworbenen sind auch zahlreiche anlagebdingte Störungen des FPG bekannt. Große Bedeutung kommt den Dysplasien des FPG und Dystopien bzw. Dislokationen der Patella zu.
In diesem Zusammenhang lassen sich gehäuft Lageanomalien der Patella - meist als Patella a)ta imponierend - beobachten. Diese Lageanomalien zu bestimmen und damit ein geeignetes diagnostisches Kriterium zu begründen, ist eine wesentliche Intention der vorliegenden Studie.
Einleitend werden anatomische Gegebenheiten dargestellt, thematisch besonders interessierende Aspekte werden näher betrachtet; dies gilt v.a. für funktionelle Aspekte. Auch auf die breite und meist komplexe Ätiopathogenese patellarer Affektionen wird näher eingegangen - der vorgestellte methodische Ansatz nimmt hierauf vielfach Bezug.
Es wird eine Methode entwickelt, die die Bestimmung der (vertikalen) Patellaposition (Patellahöhenwinkel "a") in möglichst exakter und reproduzi erbarer Weise ermöglicht. Bei diesem Verfahren werden potentielle Fehleermöglichkeiten besonders beachtet, damit bereits beim Festlegen einzelner Meßstrecken und -punkte gröbere systematische Fehler vermieden werden.
Als Normalkollektiv wurden 181 Patienten mit frischen Meniscusläsionen selektiert, während das pathologische Kollektiv 121 Patienten mit Patellaluxationen und Patellasubluxationen beinhaltete. Bezüglich der Häufigkeit des Vorkommens einer Patella alta zeigten beide untersuchten Kollektive deutliche Unterschiede; im Normalkollektiv fanden sich ca. 2 % Patellae altae, bei den Patellaluxationen waren es ca. 30 %; darüber hinaus sind weitere ca. 30 % Patellae altae im Ubergangsbereich als fakultativ pathologisch ,zu berücksichtigen.
Ein normaler Patellahöhenwinkel (+/- 1 s) liegt zwischen 10° - 21°, bei einem Mittelwert von 16°. Ein fakultativ pathologischer Winkel findet sich bei 4° - 10° bzw. 21° - 27°. Bei einer Patella alta ist der Höhenwinkel größer als 27° (größer + 2 s).
Andere aus der Literatur bekannte Methoden werden dargestellt und analytisch nach Vor- und Nachteilen erörtert. Anschließend werden alle Methoden - einschließlich der eigenen - kritisch miteinander verglichen; hieraus lassen sich manche Tendenzen, Ähnlichkeiten bzw. Unterschiede und noch ungelöste Schwierigkeiten eruieren.
Die vorliegende Methode wird auch für den klinischen Routinebetrieb empfohlen. Hierzu werden praktische Hinweise gegeben.
Sportmedizinische Trainingsberatung von Judosportlerinnen anhand von Labor- und Felduntersuchungen
(1989)
In dieser Arbeit wurden Daten der deutschen Judonationalmannschaft der Frauen erhoben. Es wurden mehrere Labortests und ein Feldtest durchgeführt. Der Feldtest wurde auf der Grundlage von eigenen Wettkampfbeobachtungen und Vorversuchen entwickelt. Die Belastung der Probantinnen durch die Tests wurde mittels beschreibender statistischer Parameter beurteilt. Die Untersuchung auf ihre sportartspezifische Aussagefähigkeit geschah durch Korrelation mit der Kaderzugehörigkeit und dem Wettkampferfolg.
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
Über Dihydropyrazine vom Typ 13 sind nach Deprotonierung mit KHMDS in Position C-2' und Umsetzung mit Elektrophilen Dihydropyrazine des Typs 41 zu 74-80 % mit Diastereoselektivitäten von 57-67 % d.e. zugänglich. Dihydropyrazine vom Typ 41 sind Vorstufen für ce-Alkyl-Carbonsäuren und liefern bei der Hydrolyse mit Kallum-rert.-Butanolat/Wasser Carbonsäuren 42 zu 90 %. Die Hydrolyse verläuft racemisierungsfrei. Der chirale Hilfsstoff 3a kann zurückgewonnen werden. Die Q-silylgeschlitzten Dihydropyrazine 68a,b sind hochdiastereoselektiv baseninduziert zu Dihydropyrazinen der Typen 70, 71 alkylierbar. Die Dihydropyrazine 74 liefern über eine Retro-Aldolreaktion bei der Umsetzung mit Kalium-tert-Butanolat unter Selbstreproduktion des stereogenen Zentrums an C-2 diastereoselektiv die Dihydropyrazine 77 in Ausbeuten von 55 - 60 % (d.e.= 56 75 %).
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
Untersuchungen zu mikrowellenfokussierenden Beschleunigerstrukturen für zukünftige lineare Collider
(1993)
Zur Erforschung immer kleinerer Strukturen der Materie benötigt die Elementarteilchenphysik Teilchenstrahlen höchster Energie. Gegenwärtig sind das Higgs-Boson und das Top-Quarks‘ die Objekte des größten physikalischen Interesses. Das sog. “Top” ist das sechste und bisher noch nicht nachgewiesene Mitglied der Quark-Familie. Seine Masse wird unterhalb von etwa 180GeV vermutet. Das Higgs-Boson spielt im sog. Standardmodell der Elementarteilchen eine wichtige Rolle. Seine Masse wird ebenfalls im Bereich zwischen 100 und 200GeV vermutet. Es gibt eine gute Chance, das Top am Protonen- Antiprotonen-Beschleuniger TEVATRON des Fermilab in Chicago nachzuweisen. Seine physikalischen Eigenschaften lassen sich aber erst an zukünfligen Beschleunigem mit höherer Energie bestimmen. Gegenwärtig werden daher mehrere verschiedene Beschleunigerkonzepte erwogen oder sind bereits in Planung bzw. im Bau. Das Spektrum reicht dabei von Protonen-Antiprotonen- bis zu Elektronen-Positronen-Maschinen. Ein vielversprechender Ansatz zur Erzeugung der benötigten Teilchenenergien ist der lineare Elektronen-Positronen-Collider, im folgenden immer als linearer Collider bezeichnet. Das Verhältnis von Meßsignal zu Hintergrund ist bei e+-e-Kollisionen besser als bei Protonen-Kollisionen. Es entstehen keine Partonen, wodurch die zur Verfugung stehende Energie effektiver genutzt werden kann [ 11. Weiterhin ist der lineare Collider im Vergleich zu einer zirkularen Maschine gleicher Endenergie und Luminosität auf lange Sicht kostengünstiger, da keine zusätzliche Hf-Leistung zur Kompensation von Synchrotronstrahlungsverlusten nötig ist. Die für die Experimente erforderliche hohe Luminosität bedingt Teilchenstrahlen von niedrigster Emittanz und geringster Energieverschmierung sowohl innerhalb eines einzelnen Teilchenpaketes als auch zwischen den Bunchen selbst [2]. Zur Erhaltung der Strahlqualität über die volle Lange des Beschleunigers ist es deshalb notwendig, ein akkurates Strahlführungssystem zu entwickeln, das es gestattet, auftretenden Strahlinstabilitäten wirksam zu begegnen. Grund der Instabilitäten sind elektromagnetische Felder, sogenannte Wake- oder Kielwellenfelder, die die Teilchen bei der Durchquerung des Beschleunigers selbst anfachen. Die Teilchenpakete werden dadurch radial von der Achse abgelenkt, sie werden verformt und erfahren eine Impulsverschmierung. Transversale Einzelbunch-Instabilitäten (SBBU, Single Bunch Beam Breakup) kann man durch die Einführung einer Energieverschmierung innerhalb eines Teilchenpakets bekämpfen; in Verbindung mit einer äußeren Strahlführung erreicht man eine Bedämpfung der Instabilität [3]. Als Alternative oder Ergänzung zu äußeren Fokussierungsmaßnahmen erscheint es deshalb interessant, inwieweit man durch geeignete Modifikationen an den Beschleunigerstrukturen die Hochfrequenzfelder selbst zur Erzeugung der benötigten Fokussierung heranziehen kann. Da es sehr schwierig ist, die für das Experiment geforderte Luminosität mit einem einzelnen Bunch zu erzeugen, muß man mehrere Teilchenpakete in kurzem Abstand durch den Beschleuniger schicken. Jetzt erfährt aber jeder Bunch die aufsummierten Wakefelder der ihm vorausfliegenden Teilchenpakete. Um zu verhindern, daß die transversale Strahlablage inakzeptabel groß wird, müssen Maßnahmen zur Kontrolle dieser Vielteilchen-Instabilitäten (MBBU, Multibunch Beam Breakup) getroffen werden. Das bedeutet, die Güten dieser als Long-Range-Wakes bezeichneten Störmoden müssen, je nach Collider, durch konstruktive Maßnahmen auf Werte in der Größenordnung von zehn abgesenkt werden. Die vorliegende Arbeit befaßt sich mit theoretischen Anwendungsmöglichkeiten von hochfrequenzfokussierenden Beschleunigerstrukturen in linearen Collidem bei Einzel- und Multibunch-Betrieb. In Kap. 2 wird eine kurze Einführung in die Problematik von Höchstenergiebeschleunigem gegeben. Anschließend werden in Kap. 3 Irisstrukturen und ihre Kenngrößen behandelt. Kap. 4 gibt eine Einführung in das Wakefeld-Konzept. Es wird untersucht, welche Resonatormoden für den Strahl gefährlich sind; die Wakepotentiale werden mit Resonatorkenngrößen in Verbindung gebracht. In Kap. 5 schließt sich eine Betrachtung zum SBBU an. Es wird untersucht, inwieweit Irisstrukturen und Rechteckblendenstrukturen (MWQ-Strukturen) zur direkten Hochfrequenzfokussierung eingesetzt werden können. Die Eigenschaften einer MWQ-Struktur werden vermessen und mit theoretischen Vorhersagen verglichen. Beispiele fiir hypothetische Collider in verschiedenen Frequenzbereichen werden diskutiert. Im anschließenden Kap. 6 wird der Mechanismus des MBBU erläutert und Möglichkeiten zur Bedämpfung insbesondere von MWQ-Strukturen im Multibunch-Betrieb untersucht. Meßergebnisse an Modellstrukturen werden vorgestellt und am Beispiel von einem S- und X-Band- Collider diskutiert.
In dieser Studie wurden die Veränderungen der Fibrinolyse während der Geburt bei insgesamt 84 Gebärenden untersucht. Gemessen wurden die Konzentrationen des Plasminogen-Aktivator-Inhibitors, alpha-2-Antiplasmins und Plasminogens mit Hilfe von photometrischen Tests mit chromogenem Substrat kurz vor Geburt, direkt nach Geburt des Kindes, 30 und 90 Minuten nach Lösung der Plazenta bei 41 Spontangebärenden und 43 Sectiopatientinnen. 30 Frauen erhielten kurz vor der Geburt eine Kurzinfusion von einer Millionen KIE Aprotinin (Trasylol®), darunter 15 Spontangebärende und 15 Sectiopatientinnen. Sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen ohne Gabe von Aprotinin war ein offensichtlicher Abfall der PAI-Konzentrationen nach Geburt zu beobachten, die Konzentrationen für alpha-2-Antiplasmin und Plasminogen blieben im gemessenen Zeitraum unverändert. Nach Gabe von Aprotinin dagegen stieg die PAI-Aktivität sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen nach Geburt leicht an und fiel dann - im Vergleich zu den Patientinnen ohne Verabreichung von Aprotinin - langsamer und schwächer ab. alpha-2-Antiplasmin stieg bei den mit Aprotinin behandelten Patientinnen nach Geburt an und fiel dann wieder bis auf den Ausgangswert ab, die Plasminogenkonzentrationen blieben im gemessenen Zeitraum weitgehend unverändert. Signifikante Unterschiede zwischen Spontangebärenden und Sectiopatientinnen gab es für alle drei Parameter nicht. Die Veränderungen der Faktoren sprechen für eine erhöhte fibrinolytische Aktivität nach Geburt, die als Reaktion auf die gesteigerte Gerinnung zum gleichen Zeitpunkt zu werten ist. Die Verminderung des Plasminogen-Aktivator-Inhibitors versteht sich als reaktiver Verbrauch durch die bei gesteigerter Gerinnung und folgender Fibrinolyse einsetzende "Anti-Fibrinolyse" durch die entsprechenden Hemmfaktoren. Die Veränderungen des PAI und des alpha-2-Antiplasmin unter Aprotinin sind am ehesten als geringere Beanspruchung des fibrinolytischen Systems zu interpretieren. Abschließend läßt sich aus den Beobachtungen ableiten, daß sich der durch die Plazentalösung ausgelöste Verbrauch von Gerinnungs- und Fibrinolysefaktoren durch die Gabe von Aprotinin reduzieren läßt, ein gerade bei intrapartalen Gerinnungsstörungen erwünschter Effekt.
In dieser Arbeit werden die mathematischen Grundlagen zur Konstruktion der primären Felder der minimalen Modelle der konformen Quantenfeldtheorie beschrieben. Wir untersuchen Verma und Fock-Moduln der Virasoro-Algebra und klassifizieren diese Moduln bezüglich der Struktur der (ko-) singulären Vektoren. Wir definieren die Vertex-Operatoren zwischen gewissen Fock-Moduln (die eine kanonische Hilbertraumstruktur besitzen) und beweisen verschiedene Eigenschaften dieser Operatoren: Unter bestimmten Voraussetzungen sind Vertex-Operatoren dicht definierte, nicht abschließbare Operatoren zwischen den Fock-Moduln. Radialgeordnete Produkte von Vertex-Operatoren existieren auf einem dichten Teilraum. Wir beweisen Kommutatorrelationen zwischen Vertex-Operatoren und den Generatoren der Virasoro-Algebra. Dann definieren wir die integrierten Vertex-Operatoren und zeigen, daß diese Operatoren im wesentlichen wieder die Eigenschaften der nichtintegrierten Vertex-Operatoren haben. Gewisse integrierte Vertex-Operatoren können mit konformen Felder identifiziert werden. Ein unter den Vertex-Operatoren invarianter Unterraum der Fock-Moduln kann mit dem physikalischen Zustandsraum identifiziert werden.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Wir verallgemeinern die Reduktionstheorie von Gitterbasen für beliebige Normen. Dabei zeigen wir neue Eigenschaften reduzierter Basen für die verallgemeinerten Reduktionsbegriffe. Wir verallgemeinern den Gauß-Algorithmus zur Reduktion zweidimensionaler Gitterbasen für alle Normen und erhalten eine universelle scharfe obere Schranke für die Zahl seiner Iterationen. Wir entwickeln für spezielle lp-Normen eine Variante des Gauß-Algorithmus mit niedriger Bit-Komplexität. Hierzu wird Schönhages schneller Reduktionsalgorithmus für quadratische Formen auf die Reduktion von Gitterbasen im klassischen zentrierten Fall übertragen.
Wir haben in dieser Arbeit einige Probleme auf Objekten betrachtet, deren Struktur wohlgeformten Klammerworten entspricht. Dies waren spezielle Routing-Probleme, das Umformen und Auswerten algebraischer Ausdrücke, sowie die Berechnung korrespondierender Symbole zweier Ausdrücke. Eine effiziente Lösung dieser Probleme gelang durch einen rekursiven Divide-and-Conquer Ansatz, der auf Grund der “natürlichen” rekursiven Definition der betrachteten Objekte auch nahe liegt. Im Divide-Schritt wurde das jeweilige Problem in viele wesentlich kleinere Teilprobleme zerlegt, so daß die gesamte Laufzeit des Algorithmus asymptotisch gleich der des Divide-Schrittes und des Conquer-Schrittes blieb. Das Zerlegen der Probleme erfolgte im wesentlichen unter Anwendung bekannter Routing-Algorithmen für monotone Routings und Bit-Permute-Complement Permutationen. Im Conquer-Schritt für das Klammerrouting und das Knotenkorrespondenzproblem wurden nur die Datenbewegungen des Divide-Schrittes rückwärts ausgeführt. Für das Tree-Contraction-Problem wurde dagegen im Conquer-Schritt die Hauptarbeit geleistet. Die Methode der Simulation eines PRAMAlgorithmus durch die Berechnung seiner Kommunikationsstruktur und eine entsprechende Umordnung der Datenelemente konnte sowohl für eine effiziente Implementierung des Tree-Contraction Conquer-Schrittes auf dem Hyperwürfel als auch für die Konstruktion eines einfachen NC1-Schaltkreises zum Auswerten Boolescher Formeln angewandt werden. In einer Implementierung eines Divide-and-Conquer Algorithmus auf einem Netzwerk müssen den generierten Teilproblemen für ihre weitere Bearbeitung Teile des Netzwerks zugeordnet werden. Um die weiteren Divide-Schritte nach der gleichen Methode ausführen zu können, sollte die Struktur dieser Teilnetzwerke analog zu der des gesamten Netzwerks sein. Wir haben das Teilnetzwerk-Zuweisungsproblem für den Hyperwürfel und einige hyperwürfelartige Netzwerke untersucht. Der Hyperwürfel und das Butterfly-Netzwerk können so in Teilnetzwerke vorgegebener Größen aufgeteilt werden, daß nur ein geringer Anteil der Prozessoren ungenutzt bleibt, und die Teilprobleme können schnell in die ihnen zugeordneten Teilnetzwerke gesendet werden. Unter Anwendung dieser Teilnetzwerk-Zuweisungs-Algorithmen haben wir optimale Implementierungen für eine große Klasse von Divide-and-Conquer Algorithmen auf dem Hyperwüfel und hyperwürfelartigen Netzwerken erhalten. Wir konnten garantieren, daß die Laufzeit der gesamten Implementierung des Divide-and-Conquer Algorithmus asymptotisch gleich der Laufzeit ist, die sich aus dem gegebenen Divide-Schritt und Conquer-Schritt ergibt, wenn man alle mit der Teilnetzwerk-Zuweisung verbundenen Probleme außer acht läßt. Wir haben die hier vorgestellte allgemeine Divide-and-Conquer Implementierung im optimalen Teilwürfel-Zuweisungs-Algorithmus, im Klammerrouting-Algorithmus, der selbst ein wesentlicher Teil des Tree-Contraction-Algorithmus ist, und im Algorithmus für das Knotenkorrespondenzproblem eingesetzt.
In dieser Arbeit wurde im Rahmen einer großen prospektiven, internationalen, multizentrischen, doppelblinden und randomisierten Studie an einer Subgruppe von 44 Patienten mit elektiver Hüftgelenkersatzoperation die Plättchenadhäsivität an silikonisiertem Glas untersucht. Ziel der Gesamtstudie war es, die Effiezienz von drei unterschiedlichen Hirudin-Dosen im Vergleich zu der üblichen Behandlung mit unfraktioniertem Heparin in der antithrombotischen Wirkung zu prüfen. 12 Patienten erhielten 2 x 10 mg, 10 Patienten 2 x 15 mg, 11 Patienten 2 x 20mg Hirudin und 11 Patienten 3 x 5000 IE unfraktioniertes Heparin. Bei allen Patienten wurde am 10. postoperativen Tag eine Phlebographie vorgenommen. Bei 6 Patienten stellte man phlebografisch eine Beinvenenthrombose ohne klinische Symptome fest. Der Plättchenadhäsivitätindex stieg unspezifisch in allen Gruppen am 1.postoperativen Tag an und fiel am 3./4. postoperativen Tag wieder mehr oder weniger gleich stark ab. Präoperativ sowie am 1. und 3./4. postoperativen Tag wurden zusätzlich folgende Parameter bestimmt: aPTT, Heptest, Fibrinogen und F VIII assoziertes Antigen. APTT stieg in beiden Gruppen an. Fibrinogen und F VIII stiegen postoperativ deutlich an. Da aber dieser Anstieg sowohl bei der Thrombosegruppe als auch bei der Nicht-Thrombosegruppe auftrat, hatten auch diese Werte keinen prädiktiven Wert. Der Heptest stieg minimal in beiden Gruppen. Dieser Test ist auch verwendbar zur Überwachung einer Behandlung mit Thrombinhemmern.
Thema dieser geistesgeschichtlichen Arbeit ist der knapp zehn Jahre alte, die wissenschaftslichen Fachgrenzen weit überschreitende und bis in die Tagespolitik hineinreichende Historikerstreit. Der Autor stellt diese Kontroverse in ein weites Bezugsfeld von früheren, ähnlichen Kontroversen und geschichtswissenschaftlichen Fallstudien der frühen Bundesrepublik. Eine leitende These lautet: Im Historikerstreit Mitte der achtziger Jahre sei es nicht nur um die Fragen der Einordnung des Nationalsozialismus gegangen, sondern im Kern um ein kollektives politisches Bewusstsein, um die Inhalte und Notwendigkeit einer nationalen Identität der Deutschen wurde die eigentliche Kontroverse in Westdeutschland geführt." Gerd R. Ueberschär
Einige Vogelarten verstecken im Herbst Samen, um die Samenverstecke im darauffolgenden Winter wieder auszubeuten. In der vorliegenden Arbeit wurde untersucht, wie sich der Kiefernhäher (Nucifraga columbiana), der Eichelhäher (Garrulus glandarius) und die Sumpfmeise (Parus palustris) beim Schaffen und Ausbeuten ihrer Wintervorräte orientieren. Bei den beiden Häherarten sollte herausgefunden werden, ob der Sonnenkompaß eine Rolle bei der Orientierung spielt, wie schon bei dem Buschblauhäher (WILTSCHKO & BALDA 1989) gezeigt werden konnte. Bei den Sumpfmeisen wurde zum einen untersucht, ob eine experimentelle Veränderung des Erdmagnetfeldes eine Rolle bei der Orientierung spielt. Weiterhin wurde untersucht, ob eine Veränderung der Position von zwei starken Scheinwerfern eine Rolle bei der Orientierung der Meisen spielt. Die Versuche mit Kiefernhähern wurden in Flagstaff (Arizona), die mit Eichelhähern und Sumpfmeisen in Frankfurt am Main durchgeführt. Die Versuche mit Kiefernhähern und Eichelhähern fanden in gleichartigen Volieren unter der natürlichen Sonne statt. Die Vögel durchliefen eine Serie von klassischen Zeitumstellungsversuchen. Die Kiefernhäher wurden darüber hinaus unter verschiedenen Licht- und Schattenverhältnissen getestet. Die Sumpfmeisen wurden in einem Versuchskäfig in einer Holzhütte unter Kunstlichtbedingungen getestet. In einer Versuchsserie wurde die Horizontalkomponete des den Versuchskäfig umgebenden Erdmagnetfeldes um 120° gedreht. In einer weiteren Versuchsserie wurde mit zwei Halogenscheinwerfern gearbeitet, deren Position während der Versuche verändert wurde. Es konnte gezeigt werden, daß sowohl beim Kiefernhäher als auch beim Eichelhäher die Sonne eine entscheidende Rolle bei der Orientierung beim Samenverstecken und der Samensuche spielt. Bei beiden Corvidenarten ist die Sonne hier in einem redundanten, multifaktoriellen System eingebunden wie es auch schon für Zugvögel und Brieftauben nachgewiesen werden konnte. Es gibt Anzeichen dafür, daß Kiefernhäher, die den Tageslauf der Sonne länger nicht mehr mitverfolgen konnten, den Sonnenkompaß erst wieder erlernen müssen. Es konnte gezeigt werden, daß die Genauigkeit, mit der die Kiefernhäher ihre versteckten Samen finden, in mehreren, aufeinander folgenden Versuchen abnimmt. Kiefernhäher besitzen ein komplizierteres Orientierungssystem als der in der Vorstudie (WILTSCHKO & BALDA 1989) untersuchte Buschblauhäher, da sie auch ökologisch mehr auf die versteckten Samen angewiesen sind, als die Buschblauhäher. Desweiteren konnte gezeigt werden, daß Eichelhäher in der Lage sind, die Position von Orten, die ihnen in einer Trainigsphase antrainiert wurde, auch nach einer versuchsfreien Phase von drei Monaten fehlerfrei wiederzufinden. Bei Sumpfmeisen konnte gezeigt werden, daß sie in der Lage sind, sich nichtvisuell zu orientieren. Ob das Erdmagnetfeld hierbei eine Rolle spielt, konnte weder bestätigt noch ausgeschlossen werden. Es konnte gezeigt werden, daß die Position der Halogenscheinwerfer bei der Orientierung der Sumpfmeisen während der Samensuche eine Rolle spielt. Es gelang in dieser Arbeit, die Hypothese zu bestätigen, daß Vögel Kompaßmechanismen nicht nur zur Orientierung während des Vogelzuges oder dem Rückflug zum Nest sondern auch in ihrem unmittelbaren Umgebungsbereich benutzen.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
Das Thema dieser Arbeit ist die Dienstvermittlung in offenen verteilten Systemen und die Rolle, die ein Typsystem dabei einnimmt. Ein Typsystem besteht aus einer Typbeschreibungssprache und der Definition einer Typkonformität. Die Typbeschreibungssprache erlaubt die Spezifiation von Typen, wohingegen mit der Typkonformität während eines Vermittlungsvorgangs überprüft wird, ob Angebot und Nachfrage zusammenpassen. In dieser Arbeit wurde zunächst nachgewiesen, daß es sinnvoll ist, bei einem Typ zwischen seiner Intension und seiner Extension zu unterscheiden. Die Intension eines Typs ist die Gesamtheit aller Beschreibungen, die auf diesen zutreffen. Die Extension eines Typs repräsentiert dagegen eine konkrete Beschreibung (d.h. Spezifikation eines Dienstangebots). Eine Interpretation ordnet jeder Extension eine Intension zu. Um in einem offenen verteilten System Dienste vermitteln zu können, müssen sich Dienstnutzer und {anbieter auf die Extensionen aller Typen einigen. Einem Typ kommt hierdurch die Rolle eine Standards zu, der allen beteiligten Parteien a priori bekannt sein muß. Daraus resultiert eine injektive Interpretation, die jeder Intension genau eine Extension zuordnet. Die eindeutig bestimmte Extension einer Intension fungiert als systemweiter Standard. Ein Typ als Standard steht im Widerspruch zu der Vielfalt und Dynamik eines offenen Dienstmarktes. Der Standardisierungsprozeß von Extensionen, der einem Vermittlungsvorgang vorausgehen muß, hemmt gerade die Dynamik des Systems. Die Konsequenz daraus ist, daß neben den Diensten auch die Diensttypen Gegenstand der Vermittlung sein müssen. Diese Schlußfolgerung ist bisher noch nicht formuliert worden. Es wäre somit wünscheswert, nicht{injektive Interpretationen zuzulassen, so daß eine Intension mehrere Extensionen besitzen kann, die unterschiedliche Sichten der Dienstnutzer und {anbieter repräsentieren. Die Analyse einiger bestehender Typsysteme zeigte, daß mit diesen eine nicht-injektive Interpretation nicht realisierbar ist. Im Hauptteil dieser Arbeit wurden zwei neue Typsysteme vorgestellt, die diese Eigenschaft unterstützen. Das deklarative Typsystem erweitert die Schnittstellenbeschreibungssprache eines syntaktischen Typsystems, indem semantische Spezifiationen zugelassen werden. Die deklarative Semantik dient dabei als Grundlage für die Beschreibung der Semantik einer Typspezifikation. Die Extension entspricht einem definiten Programm bestehend aus einer endlichen Menge von Horn-Klauseln. Die Intension eines Typs korrespondiert mit dem kleinsten Herbrand-Modell des definiten Programms, welches die semantische Spezifikation des Typs darstellt. Die Forderung nach der Möglichkeit nicht{injektiver Interpretationen ergibt sich aus den Eigenschaften der deklarativen Semantik, wonach verschiedene definite Programme ein identisches kleinstes Herbrand-Modell besitzen können. Das zweite in dieser Arbeit vorgestellte Typsystem entspringt einem wissensbasierten Ansatz. Grundlage bildet eine Wissensrepräsentationstechnik, die anwenderbezogene semantische Spezifikationen erlaubt. Ein Konzeptgraph als wissensbasierte Typspezifikation vereinigt in sich unterschiedliche Beschreibungen eines Typs. Ein Konzeptgraph, der selbst eine Extension darstellt, repräsentiert somit die Vereinigung mehrerer Extensionen eines Typs. Die Intension ist jedoch durch einen Konzeptgraph nicht eindeutig bestimmt. Dieser stellt lediglich eine Approximation dar. Hier liegt ein fundamentaler Unterschied in den beiden Typsystemen. Während eine Extension im deklarativen Typsystem auch immer eindeutig eine Intension charakterisiert, ist dies bei dem wissensbasierten Typsystem nicht der Fall. Die Konsequenz daraus ist, daß dieser Umstand bei einem Vermittlungsvorgang berücksichtigt werden muß. Ein wissensbasierter Vermittler muß über ein spezielles Vermittlungsprotokoll die Verfeinerung einer wissensbasierten Typspezifikation erlauben, die zu einer besseren Approximation der Intension führt. Das deklarative Typsystem besitzt aufgrund der Unentscheidbarkeit der deklarativen Typkonformität keine praktische Relevanz. Es zeigt jedoch, wie mit Hilfe der deklarativen Semantik der Open World Assumption genüge geleistet werden kann. Im Vergleich dazu kann das wissensbasierte Typsystem als "Fuzzyfizierung" des deklarativen Typsystems angesehen werden. Die wissensbasierte Typbeschreibungssprache ermöglicht im Sinne der Fuzzy Logik unscharfe Spezifikationen, die im Laufe der Zeit verfeinert werden. Ein Vorteil des wissensbasierten Ansatzes ist die Möglichkeit von anwenderbezogenen Typspezifikationen. Ein anderer Vorteil besteht darin, daß eine wissensbasierte Typbeschreibungssprache eine Meta-Sprache repräsentiert, in der Spezifikationen aus anderen Domänen dargestellt werden können. Ungeachtet dieser Vorteile bleibt jedoch der Beweis offen, daß die wissensbasierte Dienstvermittlung tatsächlich eine geeignete Methodik für die Vermittlung von Typen darstellt.
Wir behandeln Kettenbruchentwicklungen in beliebiger Dimension. Wir geben einen Kettenbruchalgorithmus an, der für beliebige Dimension n simultane diophantische Approximationen berechnet, die bis auf den Faktor 2 exp (n+2)/4 optimal sind. Für einen reellen Eingabevektor x := (x1,...,X n-1, 1) berechnet der Algorithmus eine Folge ganzzahliger Vektoren ....., so daß für i =1, ...., n-1 : | q exp (k) xi -pi exp (k)| <= 2 exp (n+2)/4 sqrt (1 + xi exp 2) / q exp (1/n-1). Nach Sätzen von Dirichlet und Borel ist die Schranke optimal in dem Sinne, als daß der Exponent 1/(n-1) im allgemeinen nicht erhöht werden kann. Der Algorithmus konstruiert eine Folge von Gitterbasen des Zn, welche die Gerade x R approximieren. Für gegebenes E > 0 findet der Algorithmus entweder eine Relation zu x, das heißt einen ganzzahligen zu x orthogonalen Vektor (ungleich Null), mit euklidischer Länge kleiner oder gleich E exp -1, oder er schließt Relationen zu x mit euklidischer Länge kleiner als E exp -1 aus. Der Algorithmus führt in der Dimension n und |log E| polynomial viele arithmetische Operationen auf rellen Zahlen in exakter Arithmetik aus. Für rationale Eingaben x := (p1, ....., pn)/pn, E>0 mit p1,.....,pn Teil von Z besitzt der Algorithmus polynomiale Bitkomplexität in O........ Eine Variante dieses Algorithmus konstruiert für Eingabevektoren x einen (von x nicht notwendigerweise verschiedenen) Nahebeipunkt x' zu x und eine kurze Relation zu x'. Im Falle x<>x können wir die Existenz von Relationen kleiner als (2E)exp -1 für Punkte in einer kleinen offenen Umgebung um x' ausschließen. Wir erhalten in diesem Sinne eine stetige untere Schranke für die Länge der kürzesten Relation zu Punkten in dieser Umgebung. Die für x' berechnete Relation ist bis auf einen in der Dimension n exponentiellen Faktor kürzeste Relation für x'. Zur Implementierung des Kettenbruchalgorithmus stellen wir ein numerisch stabiles Verfahren vor und berichten über experimentelle Ergebnisse. Wir geben untere Schranken für die Approximierbarkeit kürzester Relationen in der Maximum-Norm und minimaler diophantischer Approximationen an: Unter der Annahme, daß die Klasse NP nicht in der deterministischen Zeitklasse O(n exp poly log n) enthalten ist, zeigen wir: Es existiert kein Algorithmus, der für rationale Eingabevektoren x polynomial in der Bitlänge bin(x) von x ist und die in der Maximum-Norm kürzeste Relation bis auf einen Faktor 2 exp (log 0.5 - zeta bin(x)) approximiert. Dabei ist zeta eine beliebig kleine positive Konstante. Wir übertragen dieses Resultat auf das Problem, zu gegebenen rationalen Zahlen x1,....,xn-1 und einem rationalen E > 0 gute simultane diophantische Approximationen zu finden, das heißt rationale Zahlen p1/q,...; (p n-1/)q mit möglichst kleinem Hauptnenner q zu konstruieren, so daß max 1 <=i <= n-1 |q xi - pi| <= E. Wir zeigen unter obiger Annahme, daß kein Algorithmus existiert, der für gegebene rationale Zahlen x1,........,x n-1 und natürlicher Zahl N polynomial-Zeit in der Bitlänge bin(x) von x ist und simultane diophantische Approximationen berechnet, so daß max 1 <=i <= n-1 |q xi - pi| für q gehört zu [1, N] bis auf den Faktor 2 exp (log 0.5 - zeta bin(x)) minimal ist. Hierbei ist zeta wieder eine beliebig kleine positive Konstante.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Die Erhaltung des Muskeltonus, der die Grundlage für die aufrechte Körperstellung und die Feinabstimmung von Bewegungsabläufen bildet, erfordert ein Gleichgewicht der inhibitorischen und exzitatorischen Impulse, die in den neuronalen Regelkreisen des Rückenmarks verarbeitet werden. Im Rückenmark und Stammhirn von Wirbeltieren wird die synaptische Inhibition vom Strychnin-sensitiven Glyzinrezeptor (GlyR) vermittelt. Dieser liganden-gesteuerte Ionenkanal ist ein pentamerer Proteinkomplex aus drei a- und zwei ßUntereinheiten, der durch ein peripheres Membranprotein, das Gephyrin, in der neuronalen Membran verankert ist. Für die ligandenbindende a-Untereinheit konnten eine Vielzahl von Varianten isoliert werden, die für die Bildung verschiedener GlyR-Isoformen verantwortlich sind. Mutationen, die die Gene für die GlyR-Untereinheiten betreffen, sind stets mit chronischen Bewegungsstömngen assoziiert. So sind Punktmutationen im Gen für die GlyR al-Untereinheit für die Hyperekplexie (Startle Disease) verantwortlich, eine humane Erbkrankheit, die durch ausgeprägte Schreckreaktionen und episodische Muskelsteifheit charakterisiert ist. Die spontanen Mausmutanten spastic (spa), spasmodic (spd) und oscillator (ot), die vergleichbare Bewegungsstömngen manifestieren, tragen ebenfalls Mutationen in den Genen für die GlyR-Untereinheiten. Bei der Mausmutante spa führt eine Transposoninsertion, die im Gen für die GlyR ß-Untereinheit lokalisiert ist, zu einer Störung der GlyR ßExpression. Bei den Mausmutanten spd und ot wurden, wie bei Hyperekplexiepatienten, Mutationen im Gen für die a 1-Untereinheit identifiziert. Diese Mutation führt bei der spasmodischen Maus zu veränderten Rezeptoreigenschaften und bei oscillator zum völligen Verlust der al-Untereinheit. Die Analogie der murinen und humanen Erbkrankheiten ermöglicht die Verwendung der Mausmutanten bei der Entwicklung von in vivo Tiermodellen, die zur Erforschung der molekularen Grundlagen der Glyzinrezeptorfunktion und zur Untersuchung von GlyR-Defekten des Menschen geeignet sind. Für die Entwicklung solcher Tiermodelle wurde in der vorliegenden Arbeit versucht, die hereditären Bewegungsstörungen der Mausmutanten spa, spd und ot durch therapeutischen Gentransfer zu komplementieren. Hierbei sollten die in den Mausmutanten defekten Rezeptorstmkturgene durch solche fremder Spezies ersetzt werden.
Für die genetische Rettung der spastischen Mausmutante wurden transgene Mäuse entwickelt, die die ß-Untereinheit der Ratte in ihrem Nervensystem überexprirnieren. Durch Einbringen der Transgenallele in den genetischen Hintergrund der spastischen Maus konnte deren Menge an funktionellen GlyR ß-Transkripten vergrößert werden. Hierdurch konnte eine Zunahme an funktionellen GlyR-Molekülen erreicht und die Manifestierung ihres mutanten Phänotyps verhindert werden. Dies liefe11e zum einen den formalen Beweis für den Zusammenhang von identifiziertem Gendefekt und mutantem Phänotyp und zeigte, daß GlyR-Untereinheiten über Speziesbarrieren hinweg wirksam sind. Zum anderen wurde deutlich, daß das Erscheinen der adulten GlyR-Isoform (GlyRA) an der Membranoberfläche in vivo direkt von der Verfügbarkeit funktioneller ß-Untereinheiten abhängig ist. Darüber hinaus konnte zum ersten Mal gezeigt werden, daß die normale Funktion des glyzinergen Systems bereits dann gewährleistet ist, wenn nur 25% an funktionsfähigen ß-Transkripten gebildet werden bzw. wenn nur ca. die Hälfte der im Wildtyp vorhandenen GlyRA-Moleküle die neuronale Membranoberfläche erreichen.
Zur genetischen Rettung der Mausmutanten spasmodic und oscillator wurden, in analogen Versuchsansätzen, transgene Mauslinien etabliert, die die GlyR al-Untereinheit des Menschen in ihrem Nervensystem überexprimieren. Nach Einbringen der Transgenallele in den genetischen Hintergrund der ot Maus konnte deren Phänotyp partiell komplementiert werden. Eine vollständige Rettung dieser Mausmutante bzw. eine Komplementation des spasmodischen Phänotyps konnte, vermutlich aufgrund zu niedriger Transgenexpressionsrate, nicht erreicht werden. Dennoch zeigte das Ergebnis, daß die humane al-Untereinheit in der Maus Funktion übernehmen kann, eine Grundvoraussetzung für die Entwicklung von Mausmodellen, die zur Untersuchung des Pathomechanismus mutierter GlyR-Untereinheiten des Menschen geeignet sind.
Zweites Ziel der vorliegenden Arbeit war die Entwicklung von transgenen Mäusen, die die rekombinante GlyR-Untereinheit "Chl" in ihrem Nervensystem exprimieren, für die in vitro gezeigt wurde, daß sie eine dominant negative Wirkung auf die GlyR-Aktivität entfaltet. Durch den Einsatz dieser Untereinheit sollte die GlyR-Aktivität in vivo gezielt reduziert werden und damit der Pathomechanismus der al-Untereinheit in Hyperekplexiepatienten, die ebenfalls als dominant negative GlyR-Untereinheit wirkt, simuliert werden. Die molekularbiologischen Analysen der etablierten Chl-transgen Linien zeigten, daß die transgene Untereinheit, anders als erwartet, die Expression der ligandenbindende al-Untereinheit beeinflußt. Diese Erkenntnis steht im Gegensatz zu den Ergebnissen aus entsprechenden Experimenten mit in vitro Systemen und macht deutlich, daß in vitro Modelle die in vivo Situation nicht unbedingt repräsentieren müssen. Dies unterstreicht die Bedeutung von Tiermodellen bei der Untersuchung der molekularen Grundlagen der glyzinergen Nervenübertragung und bei der Erforschung von humanen Glyzinrezeptordefekten.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Wir untersuchten über einen Zeitraum von 5 Jahren 40 Patienten, bei denen die Diagnose einer Achalasie nach etablierten Kriterien gesichert worden war hinsichtlich der Effektivität und der Nebenwirkungen einer pneumatischen Dilatation mit einem neuartigen "Low - Compliance" Ballonsystem. Alle Patienten wurden vor, 4 - 6 Wochen und abschließend im Mittel 28 ± 15 Monate nach der pneumatischen Dilatation untersucht. Die pneumatische Dilatation erfolgte entweder unter Verwendung eines 30 oder 35 mm Ballonsystemes, abhängig von vorher festgelegten Kriterien. Zusätzlich konnte bei 12 dieser Patienten, vor - und im Mittel 26 ± 15 Monate nach der pneumatischen Dilatation, eine ösophageale pH - Messung durchgeführt werden. Insgesamt wurden 52 Dilatationen mit einer durchschnittlichen Dilatationszeit von 4 Minuten durchgeführt. Ein initialer Erfolg nach einmaliger pneumatischer Dilatation konnte bei 35 Patienten (87,5%) erreicht werden. Die übrigen 5 Patienten sowie weitere 7 Patienten, bei denen eine Dysphagie erneut auftrat, wurden ein zweites Mal dilatiert. Die beiden Patienten, bei denen auch nach dieser zweiten Dilatation noch deutliche Symptome bestanden, wurden einer operativen Kardiomyotomie zugeführt (Operationsfrequenz = 5%). Die Effektivität der Dilatation wurde durch eine signifikante Verringerung der klinischen Symptomatik dokumentiert. So verringerte sich der Symptomen - Score (1-14 Punkte) von 9,9 ± 2,1 Punkte vor pneumatischer Dilatation, auf 4,9 ± 2,4 Punkte 4-6 Wochen nach pneumatischer Dilatation und auf 4,9 ± 2,4 Punkte bei der Abschlußuntersuchung (p< 0,01). Der Ruhedruck des unteren Ösophagussphinkters konnte durch die Dilatation von 28,3 ± 0,8 mmHg auf 16,4 ± 6,4 mmHg nach Dilatation und weiter auf 14,7 ± 5,5 mmHg bei der Abschlußuntersuchung, gesenkt werden (p< 0,01). Weder der radiologisch bestimmte Durchmesser des tubulären Ösophagus, noch die manometrisch fassbaren Kontraktionsamplituden im tubulären Ösophagus wurden durch die pneumatische Dilatation signifikant beeinflußt. Betrachtet man die Nebenwirkungen, so zeigte die Langzeit pH - Metrie eine deutliche Erhöhung der Anzahl, sowie der Dauer der gastroösophagealen Refluxepisoden, mit einem pH < 4 nach der pneumatischen Dilatation. Konträr zu diesen Ergebnissen klagte allerdings nur ein Patient über Sodbrennen. Bei einem weiteren Patienten konnte, obwohl dieser keine Beschwerden angab, endoskopisch eine Ösophagitis Grad I gesichert werden. Es wurde eine Perforation beobachtet, eine operative Versorgung des Patienten war jedoch nicht erforderlich. Diese Ergebnisse zeigen, daß die pneumatische Dilatation mit dem "Low - Compliance" System eine adäquate Behandlungsmethode der Achalasie darstellt, die sich jedoch hinsichtlich ihrer Kurz - und Langzeiteffektivität nicht wesentlich von den bisher verwendeten Systemen unterscheidet.
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Im Rahmen der vorliegenden Arbeit wurden alle UAW-Verdachtsfallberichte nach Anwendung von Impfstoffen, die dem Paul-Ehrlich-Institut im Zeitraum von 1987 bis 1995 zugingen, nochmals aufgearbeitet und für jeden Impfstoff ein Nebenwirkungsprofil (PEI-UAW-PROFIL) erstellt. In diesem Zusammenhang wurden die derzeit gebräuchlichen Systeme zur Arzneimittelüberwachung und Kausalitätsbewertung vorgestellt und diskutiert. Alle derzeit von der ständigen Impfkommission (STIKO) empfohlenen Schutzimpfungen wurden kurz beschrieben und die verfügbaren Impfstoffe mitsamt ihres UAW-Profils charakterisiert. Abschließend wurden Möglichkeiten der Optimierung des derzeit gebräuchlichen passiven Spontanerfassungssystems aufgezeigt.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.
Der Weltfrieden hängt heute mehr denn je von der Kommunikation zwischen den Menschen unterschiedlichster Kulturen ab. Jenseits der Dialoge des Westens und Ostens, des Nordens und Südens liegt das Dynamit von interkulturellen Konflikten. Obgleich zumeist lokal begrenzt, zerreißen sie mit ihrer Sprengkraft Blöcke. Kriege, Entkolonialisierungskämpfe, ökologische und soziale Krisen können ab dem 20. Jahrhundert unversehens ein globales Ausmaß annehmen. ...
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Zur adäquaten Bestrahlung maligner Tumoren ist eine gute Reproduzierbarkeit der angestrebten Bestrahlungsposition bei jeder Therapiefraktion von entscheidender Bedeutung. Bei der freien Lagerung von Patienten muß die Bestrahlungsposition anhand von Hautmarkierungen sicher nachvollziehbar sein. Häufiges Nachzeichnen schränkt die Identifizierbarkeit dieser Einstellhilfen durch ein zunehmendes Maß an Ungenauigkeit ein. Im ersten Teil der Studie wurden drei verschiedene Markierungsverfahren in bezug auf ihre Eignung in der Bestrahlungsroutine verglichen. Es handelte sich um zwei Verfahren zur Konservierung der Haumarkierungen mit Hilfe von Wundverbänden und um die Hautmarkierung mit einem speziellen Hautmarkierungsstift. Zur Bewertung dienten die Kriterien Haltbarkeitsdauer und Identifizierbarkeit, sowie Hautverträglichkeit. Es zeigte sich, daß ausschließlich der Viomedex ® Hautmarkierungsstift für den Einsatz bei der Bestrahlung geeignet war. Im zweiten Teil der Studie wurde prospektiv untersucht, ob verglichen mit der bisher geübten Praxis mit Viomedex ® eine Verlängerung der Haltbarkeit der Hautmarkierungen und eine Verbesserung der Reproduzierbarkeit der Patientenlagerung erreicht werden kann. Haltbarkeit und Reproduzierbarkeit wurden in Abhängigkeit von den Hautmerkmalen Nachtschweiß, Schweißneigung, Behaarungsgrad und Hauttyp sowie dem Zeitpunkt der Einzeichnung ermittelt. Die durchschnittliche Haltbarkeit, betrug 11,02 Tage. Sie stand in keinem signifikanten Zusammenhang zu bestimmten Hautparametern. Einzeichnungen, die zu einem späteren Zeitpunkt im Verlauf der Strahlenbehandlung erfolgten, wiesen eine etwas längere Haltbarkeit auf, der Unterschied war statistisch nicht signifikant. Durch Identifizierung anatomischer Bildpunkte wurden die Verifikationsaufnahmen mit der jeweiligen Simulationsaufnahme verglichen und die mittlere Gesamtabweichung aller untersuchten Einstellungen als Maß für die Reproduzierbarkeit der Bestrahlung berechnet. Ein signifikanter Zusammenhang mit dem Zeitpunkt der Einzeichnung oder mit bestimmten Hautparametern trat nicht auf. Gegenüber früheren Untersuchungen unseres Institutes ergab sich eine stark verbesserte Reproduzierbarkeit. So verringerte sich der Wert der Gesamtabweichung bei der Bestrahlung der weiblichen Brust von 0,605 cm auf 0,490 cm. Bei Betrachtung der übrigen Patienten, die ohne Fixationshilfen bestrahlt wurden, konnte die Gesamtabweichung von 1,082 cm auf 0,655 cm gesenkt werden. Auch der Prozentsatz sehr großer Einstellfehler (>1 cm) ist im internen Vergleich bei der Bestrahlung aller Körperregionen von 47,7 % auf 20,4 % zurückgegangen. Es wurde gezeigt, daß durch langhaftende, sorgfältig eingezeichnete Hautmarkierungen, die Reproduzierbarkeit der Einstellungen bei frei gelagerten Patienten verbessert werden kann. Eine ProblemPatientengruppe, die aufgrund ihrer Hauteigenschaften einer gesonderten Markierungsmethode bedarf, wurde nicht ermittelt. Es konnten feste Regeln zum Anbringen und Überwachen der Hautmarkierungen formuliert werden, die in die Bestrahlungsroutine der Klinik für Strahlentherapie der J. W. GoetheUniversität aufgenommen wurden.
Die präventive Rückenschule zu Pferde ist eine Möglichkeit haltungsgefährdete Kinder, besonders solche, die nicht zur aktiven Teilnahme an einer konventionellen Rückenschule zu bewegen sind, durch den besonderen Anreizdes Pferdes zu rückenschonendem Verhalten zu motivieren. In mehreren Pilotstudien konnten ermutigende Beobachtungen gemacht werden. Verschiedene Verfahren zur Evaluation einer Rückenschule wurden betrachtetund eine Bewertung wurde vorgenommen. Im Vordergrund der Betrachtung standen die Haltung und eventuelle Beschwerden. Die Beurteilung der Haltungdurch den Orthopäden im Rahmen einer körperlichen Untersuchung erscheint uns als das verlässlichste Instrument. Von besonderer Bedeutung ist hierbei der Halteleistungstest nach Matthias. Der Einsatz von Fragebogen erfasst den Parameter Beschwerden am sichersten. Ultraschallvermessungen zur Haltungsbeurteilung und Mobilitätsbestimmung sind wegen unklarer Validität der Daten noch nicht zu empfehlen. Auch die Erfassung von Ausdauer oder Erschöpfung sowie Kraftzunahme ist mit der Elektromyographie noch nicht sicher zu leisten. Zukünftige Entwicklungen bleiben abzuwarten. Die Durchführung der "Präventiven Rückenschule zu Pferde" ist nach unseren positiven Erfahrungen empfehlenswert.
Defluran ist ein volatiles Inhalationsästhetikum aus der Gruppe der halogenierten Methyl-Äthyl-Äther. Eines seiner Nebenwirkungen ist die Verstärkung eines kompetitiven neuromuskulären Blocks. Die vorliegende Dissertation untersucht den Einfluss von Desfluran auf die Wirkstärke der nichtdepolarisierenden Muskelrelaxan zien Vecuronium, Atracurium und Pancuronium. Patienten der ASA-Klassifikation I und II wurden randomisiert in fünf Untersuchungsgruppen aufgeteilt. Die Wirkstärke-Untersuchungen der verschiedenen Muskelrelaxanzien wurden jeweils unter Desfluran-Narkose und als Kontrollgruppe unter modifizierter Neuroleptanästhesie durchgeführt. Die Messung der neuromuskulären Funktion wurde mechanographisch durchgeführt. Mit Hilfe der gefundenen kumulativen Effekte und der gegebenen kumulativen Dosen wurden für jeden Patienten durch semilogarithmische Regressionsanalysen eine kumulative Dosis-Wirkungskurve berechnet und individuelle 50-%- bzw. 95-%- Blockadedosen (ED50, ED95) ermittelt. Die resultierenden ED50- (ED95-)Werte wurden nach Untersuchungsgruppen zusammengestellt und mit Hilfe eines nicht-parametrischen Tests auf statistisch signifikante Unterschiede zwischen den Gruppen untersucht. Signifikanzniveau war die Irrtumswahrscheinlichkeit von 5%. Desfluran potenziert die relaxierende Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und auch Pancuronium. Bezogen auf die ED50 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 33% und für Atracurium bei 36%. Bezogen auf die ED95 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 34% und für Atracurium bei 38%. Vecuronium und Atracurium werden durch Desfluran in geringfügigem Masse unterschiedlich potenziert. Zusammenfassend lässt sich sagen, dass Desfluran die Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und Pancuronium um ein Drittel ihrer Wirkstärke potenziert, das heisst, um die gleiche Wirkung zu erhalten, ist eine Dosisreduktion der Muskelrelaxanzien um ca. ein Drittel vorzunehmen. Zudem lässt sich anhand von vergleichenden Daten aus der Literatur nachweisen, dass die Potenzierung kompetitiver Muskelrelaxanzien durch die Ätherderivate Desfluran/Isofluran substanz unabhängig ist, wobei sich die Substanzunabhängigkeit sowohl auf die verwendeten Muskelrelaxanzien als auch auf die applizierten Ätherderivate bezieht.
Zur Beantwortung der Frage nach dem Auftreten einer Narbenhernie nach medianerLaparotomie bei elektiver colorektaler Chirurgie wurden 482 Patienten befragt. Diese Patienten wurden im Zeitraum von Anfang 1985 bis Anfang 1994 in derChirurgischen Klinik I der Städtischen Kliniken Offenbach mit dieser Technik operiert.423 Patienten konnten mittels eines Fragebogens nachuntersucht werden. Bei der Auswertung dieser Fragebögen zeigte sich, dass es bei 10,17% der Patienten zu einerNarbenhernie kam. 86% dieser Hernien traten innerhalb der ersten zwei postoperativen Jahre auf.Zur Frage, welchen Einfluss die bekannten Risikofaktoren auf die Häufigkeit des Auftretens einer Narbenhernie hatten, wurden folgende Faktoren untersucht: -männliches Geschlecht -frühere Laparotomie -Adipositas -Hypertonie -Diabetes mellitus -chronische Atemwegserkrankungen -postoperative Beatmung -Wundheilungsstörungen -Alter -Nahtmaterial -Bluttransfusion -Anämie -Hypoproteinämie -postoperative Chemotherapie -Nahttechnik Die hier untersuchten Faktoren könnten Risikofaktoren für das Auftreten einerNarbenhernie sein. Es kam zu einem statistisch signifikant höheren Auftreten von Hernien (c2-Test bei der Irrtumswahrscheinlichkeit a=0,05) bei Patienten mitpostoperativer Chemotherapie und in der Gruppe der 51 bis 60 Jahre alten Patienten. Folgende Faktoren scheinen die wichtigsten zu sein: -postoperative Beatmung -postoperative Chemotherapie (signifikant) -Wundheilungsstörungen -Alter zwischen 51 und 60 Jahre (signifikant) -frühere Laparotomie -chronische Atemwegserkrankungen -Einzelknopfnaht -Adipositas -Polyglykolsäure (Dexon(R)) als Nahtmaterial -arterielle Hypertonie -männliches Geschlecht Die übrigen untersuchten Faktoren zeigen ein nur gering höheres Auftreten oder sogar ein niedrigeres Auftreten von Hernien. Dies ist zum Teil auf die geringe Anzahl derPatienten in diesen Gruppen zurückzuführen. Beim Vergleich der aseptischen mit den kontaminierten Eingriffen kommt es zueinem signifikant höherem Auftreten von Narbenhernien in der Gruppe der aseptisch Operierten. Bei dieser Gruppe erfolgte im Gegensatz zur Gruppe mit denkontaminierten Eingriffen der Bauchdeckenverschluss mit nichtresorbierbarem Nahtmaterial (Prolene(R)).Man kann zusammenfassend sagen, dass ein erhöhtes Auftreten von Hernien bei Patienten zu erwarten ist, bei denen es zu einer Beeinträchtigung der Wundheilungoder zu einer Erhöhung des intraabdominellen Druckes kommt. Weiteres Augenmerk ist auf das verwendete Nahtmaterial sowie die Nahttechnik zu richten. EineVerwendung von Polyglykonat in fortlaufender Nahttechnik hat gemäss dieser Untersuchung ein geringeres Auftreten von Narbenhernien zur Folge.Eine Untersuchung, die die Gründe des signifikant höheren Auftretens von Hernien bei Patienten mit Arteriopathien betrachtet, scheint mit dieser speziellen Fragestellungsinnvoll zu sein.
Die multiple Sklerose mit ihren 3 klinischen Verlaufssubformen schubförmig, sekundär chronisch-progredient und primär chronisch-progredient weist sowohl im klinischen Symptomenbild als auch in der Verlaufsdynamik eine ausgesprochene Heterogenität auf. Als prognostisch ungünstig gelten in erster Linie der primär oder sekundär chronisch-progrediente Krankheitsverlauf, ein höheres Manifestationalter, eine initiale cerebelläre und/oder pyramidale Symptomatik und ein in der frühen Phase sich rasch kumulierendes funktionelles Defizit. Andere mögliche Einflussgrössen, insbesondere genetische Faktoren, Liquorparameter und primäre Behandlungsstrategien, sind diesbezüglich umstritten oder weitgehend negativ geblieben. Eine sowohl im Hinblick auf die Krankheitsdefinition im Einzelfall als auch in prognostischer Hinsicht, in absehbarer Zeit vielleicht sogar für die Therapie, relevante Frage ist die des Auftretens einer zweiten neurologischen Krankheitsepisode (Schub, Attacke) nach einer zunächst isoliert aufgetretenen Episode einer entzündlichen neurologischen Erkrankung, die von der Art der Symptomatik und nach den technisch-apparativen wie laborbezogenen Zusatzbefunden als Erstschub einer multiplen Sklerose aufgefasst werden könnte. Die hierzu bislang vorliegenden Untersuchungen hatten in erster Linie die isolierte Optikusneuritis und monosymptomatische ZNS-Syndrome wie Querschnittsmyelitis, Episoden mit rein sensiblen Störungen und solche mit ausschliesslicher Hirnstammsymptomatik zum Gegenstand. Bevölkerungsbezogene Daten wurden dabei jedoch nur für die Optikusneuritis vorgelegt, zudem war bei dieser die Wertigkeit der paraklinischen Zusatzbefunde nur anhand klinischer Serien untersucht worden. In der vorliegenden eigenen Studie wurde die spezielle Frage der Fortentwicklung von einer möglichen bzw. fraglichen multiple Sklerose in eine wahrscheinliche oder sichere MS in Form entweder eines zweiten Krankheitsschubes oder des Übergangs in einen sekundär chronisch-progredienten Verlauf anhand einer Subkohorte mit einer derartigen Ereigniskonstellation aus einem bevölkerungsbezogen ermittelten umfangreichen MS-Krankengut (N=950) untersucht. Der Studienansatz entspricht einer gemischten historisch und prospektiv angelegten Kohortenstudie. Als Einschlusskriterien galten die klinisch gestellte Verdachtsdiagnose der multiplen Sklerose im Sinne einer Einzelattacke und die Zugehörigkeit zu der die epidemiologische Studienpopulation bildenden Bevölkerung eines definierten Areales in Südhessen sowie die Durchführung der ersten stationären abklärenden Untersuchung in der das Studienzentrum darstellenden Neurologischen Klinik in Darmstadt. Die Daten zum weiteren Krankheitsverlauf der Kohortenmitglieder wurden teilweise im retrospektiven Ansatz der Einzelfalldokumentationen der epidemiologischen Feldstudie, ergänzt durch die Krankenblattarchive der Klinik, teilweise prospektiv (die nach den vorliegenden Aufzeichnungen ohne Zweitereignis gebliebenen und damit als zu zensierend anzusehenden Patienten betreffend) durch prospektives Nachfragen bei den weiterbehandelnden Ärzten und den Kohortenmitgliedern selbst in Erfahrung gebracht. Die Wahrscheinlichkeit des Ausfallsereignisses, d.h. des Auftretens einer weiteren Krankheitsepisode bzw. eines sekundär chronisch-progredienten Verlaufes wurde in Abhängigkeit von der Beobachtungszeit nach den Methoden der Überlebenszeitanalyse (Kaplan-Meier-Methode) ausgewertet, und der mögliche Einfluss von demographischen und klinischen Variablen wurde univariat mittels des Log-Rank-Testes und multivariat anhand des Cox'schen Proportional Hazard- Modells untersucht. Von den 136 hinsichtlich des weiteren Verlaufes auswertbaren Patienten der Kohorte trat während der Beobachtungsperiode von Januar 1982 bis August 1995 bei 71 (45 Frauen, 26 Männern) das Ausfallsereignis ein, wobei das Intervall zwischen 2 Monaten und 12 Jahren stark variierte. Für die Gesamtkohorte (N = 136) lag der Median bei 67 Monaten (Standardabweichung: 17 Monate), und nach 95 Monaten (7,9 Jahre) hatten 40 % der Kohortenmitglieder das Zweitereignis (noch) nicht entwickelt. Bei der univariaten Auswertung anhand des LogRank-Testes waren ein Erkrankungsalter unter 30 Jahren, eine andere Anfangssymptomatik als eine monosymptomatische Optikusneuritis, das Betroffensein von mehr als 2 Funktionssystemen bei der initialen Episode sowie eine abnorm erhöhte Liquorzellzahl, ein erhöhtes Liquoreiweiss und eine gesteigerte intrathekale IgG-Syntheserate bzw. wenigstens einer der genannten Liquorparameter sowie eine Latenzzeitverzögerung im VEP (mit oder ohne gleichzeitige Amplitudenreduktion) statistisch signifikant (P < 0,05) mit der Ereigniswahrscheinlichkeit assoziiert. Ein niedrigerer sozioökonomischer Status (manuelle Berufstätigkeit zu Krankheitsbeginn), das Vorhandensein motorischer bzw. pyramidaler Störungen bei der Ausgangsepisode, das Vorliegen multipler Herdbildungen in der Kernspintomographie und die Anwendung einer Steroidtherapie bei der initialen Krankheitsattacke waren diesbezüglich grenzwertig signifikant (P 0,05 < P < 0,1). Hingegen waren das Geschlecht, die Nationalität, die übrigen betroffenen Funktionssysteme beim Initialschub (darunter Hirnstammsymptome, eine rein sensible Anfangssymptomatik und zerebelläre Symptome), das Vorhandensein von 2 oder mehr im Vergleich zu einem Funktionssystem sowie die Befunde der somatosensorisch evozierten Potentiale (SEP) und der Computertomographie (CT) diesbezüglich ohne prädiktiven Wert. In der multivariaten Auswertung anhand des Cox'schen Regressionsmodells zeigten die Beteiligung von 3 oder mehr Funktionssystemen, eine über eine Optikusneuritis hinausgehende Anfangssymptomatik, Latenzzeitverlängerungen im VEP und eine gesteigerte intrathekale IgG-Syntheserate einen eigenständigen Beitrag zum Risiko des Progesses in Form eines Zweitereignisses und damit des Überganges in eine gesicherte multiple Sklerose, während die übrigen univariat mit dem Risiko verknüpften Variablen sich diesbezüglich als konfundiert erwiesen. Wenngleich die in den Ergebnissen zu Tage getretenen breiten Konfidenzintervalle eine Festlegung im Einzelfall enorm erschweren, lassen die Ergebnisse doch gewisse Trendaussagen sowohl im Hinblick auf die Planung wissenschaftlicher Studien als auch die Beratung des einzelnen Kranken zu. Insbesondere erscheint es gerechtfertigt, bei einer Kombination von mehreren der in der vorliegenden Studie herausgestellten positiven prädiktiven Einfluss- grössen von einer eher ungünstigen Prognose, die Entwicklung einer klinisch sicheren MS betreffend, auszugehen. Ob damit auch eine prognostische Voraussage über den in der eigenen Studie nicht untersuchten weiteren Langzeitverlauf möglich ist, kann in Anbetracht der stark kontroversen Datenlage in der Literatur, die initiale Schubhäufigkeit und die Zahl beteiligter Funktionssysteme betreffend, vorerst noch nicht beurteilt werden. Über den wissenschaftlich studientechnischen und den Beratungsaspekt hinausgehend ist von Interesse, ob die hier aufgezeigten prognostischen Prädiktoren auch als Richtschnur für therapeutische Entscheidungen dienen können. Da eine das hier untersuchte Zielereignis beeinflussende Therapie vorläufig nicht existiert, stellt sich diese Frage derzeit konkret noch nicht, entsprechende Untersuchungen sind aber beispielsweise für Interferon-beta 1a im Gange. In jedem Fall werden evtl. zukünftige derartige Entscheidungen, auch dann wenn sich krankheitsbezogene Prädiktoren wie die in der hiesigen Studie herausgestellten mit heranziehen lassen, angesichts potentieller Nebenwirkungen der jeweiligen Substanzen ein hohes Mass an ethischer Verantwortung erfordern.