Refine
Year of publication
Document Type
- Doctoral Thesis (3626) (remove)
Language
- German (3626) (remove)
Has Fulltext
- yes (3626) (remove)
Is part of the Bibliography
- no (3626)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1390)
- Biochemie und Chemie (447)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Das Stapelrecht in Mainz
(1925)
Staatliche Eingriffe in die elterliche Erziehungsgewalt ausserhalb des Bürgerlichen Gesetzbuches
(1925)
Verdunstungsstudien
(1930)
Mit Hilfe von Apparaten wird es wohl niemals gelingen, die tatsachliche Verdunstung bestimmter Landflächen zu bestimmen, so wichtig eine derartige Ermittlung im Hinblick auf Klimaforschung, Wasserhaushalt der Erde und dergleichen sein mag. Es wurde daher schon aud die verschiedensten Arten versucht, wenigstens ein relatives Maß der Verdunstung - die sogenannte Verdunstungskraft zu bestimmen. Freie Wasserflächen für eine derartige Untersuchung zu verwenden, wäre das Einfachste ; jedoch sind hierbei die Möglichkeiten einer Störung besonders groß infolge von Einflüssen, die die gemessene Verdunstungskraft verändern, und so Fälschungen der Messungen verursachen. Es seien hier nur die Störiingon durch Regen, den Rand der Schale, Verunreinigungen der Oberflache und durch Wellenbildung erwähnt. Darum scheint es vorteilhafter, wie bereits Babinetl 1848 vorschlug, für derartige Messungen statt der freien Wasserfläche einen porösen Tonkörper zu verwenden. Mitscherlich und Livingstone begannen dann ziemlich gleichzeitig 1904 mit derartigen Tonkörpern zu arbeiten, und Livingstone trat bald mit seinen vor allem für die Botanik wichtigen Ergebnissen hervor. Aufgabe des Meteorologen ist, eine Methode zu schaffen, die eine stets wiederholbare Messung ermöglicht; jedoch muß man sich dessen befaßt sein, daß solche Messungen keinesfalls die Verdunstungswerte der Erdoberfläche mit oder ohne Vegetation oder die Wasserabgabe des Menschen angeben. Das Verhältnis dieser, der "natürlichen" Verdunstungswerte, zu dem durch jene im folgenden erörterte - Methode gefundenen "physikalischen" Werte bedarf noch der Ermittlung. Über die Sondergebiete der Verdunstung liegen bereits zahlreiche Arbeiten vor. In dieser Arbeit wird zuerst die verwendete Apparatur und die Meßanordnung besprochen, dann der Einfluß des Windes, der Temperatur und des äußeren Dampfdruckes auf die Verdunstung untersucht. Darauf wird die durch die Verdunstung selbst erzeugte Ventilation, die "Grundventilation" behandelt. Es schließt sich die Ermittliing des Strahlungseinflusses und die Eignung des Apparates zu Strahlungsmessungen an, und zum Schluß werden Vergleichsmessungen mit anderen Apparaten angeführt.
Inhalt:
Widmung
1-37 I. Kapitel: Die Abhebung der ästhetischen von der moralischen Deutung der Kunst
38-64 II. Kapitel: Die Systematik der Künste
65-71 Zwischenbemerkung: Über das ästhetische Verhalten, den Wahrheitsgehalt der Kunst und die ästhetischen Kategorien
72-96 III. Kapitel: Die Geschichtsphilosophie der Kunst
97-111 IV. Kapitel: Die Wandlung in der Auffassung der Kunst von der "Geburt der Tragödie" bis zu "Menschliches - Allzumenschliches"
113-114 Literaturverzeichnis
Lebenslauf
1. Es liegt auf Grund zahlreicher Beobachtungen und Untersuchungen kein Grund vor, an dem Bestehen des Zusammenhanges dentaler Erkrankungen mit Augenerkrankungen zu zweifeln; es bestehen sowohl Zusammenhänge per continuitatem als auch auf dem Blut- und Lymphwege (Fokalinfektion), es ist jedoch zurzeit unmöglich, den wissenschaftlichen Beweis für den Zusammenhang zu erbringen. 2. Besonders verdächtig im Sinne der Fokalinfektion erscheinen einseitige Erkrankungen. 3. Bei Verdacht auf Oralsepsis gilt für den Augenarzt; Gründliche Untersuchung durch den Zahnarzt, der nicht nur die Zähne, sondern auch die Zahnlücken zu beachten hat.
Die deutschen Hohlglashütten wurden im August 1933 zu einem Zwangskartell zusammengeschlossen . Die dabei zu überwindenden Schwierigkeiten bestanden vornehmlich in der Verschiedenartigkeit der erstellten Erzeugnisse und in dem besonders ausgeprägten Hang zur Selbständigkeit der in diesem Industriezweig weitaus überwiegenden Mittelbetriebe. Darüber hinaus stieß die Durchführung der Preisordnung infolge der Rückständigkeit des Rechnungswesens der einzelnen Hütten auf nahezu unüberwindbar erscheinende Widerstände. Es mangelte und mangelt noch heute durchweg an brauchbaren Kalkulationsunterlagen und damit an der Möglichkeit einer einwandfreien Ermittlung des Erfolges bzw . Verlustes und seiner Quellen...
Schon im ersten Weltkrieg, besonders aber seit dem Ausbruch der Weltwirtschaftskrise und erst recht im zweiten Weltkrieg hat der öffentliche Kredit in finanz- und wirtschaftspolitischer Hinsicht eine Bedeutung erlangt, wie nie zuvor. Er, der ehedem fast nur ein außerordentliches Mittel zur Überwindung vorübergehender finanzieller Schwierigkeiten des Staates gewesen war, entwickelte sich in dieser Zeit zu einem wirtschaftspolitischen Faktor ersten Ranges, ohne dessen Mitwirkung eine erfolgreiche Finanz- und Wirtschaftspolitik heute kaum denkbar ist. Besonders die durch den zweiten Weltkrieg geschaffene Zwangslage nötigte die einzelnen Volkswirtschaften, die durch ihn gebotenen finanz- und wirtschaftspolitischen Möglichkeiten in jeder Weise bis zur Grenze des absolut Möglichen auszuprobieren. Die konjunkturaktive öffentliche Kreditpolitik jener Zeit war von Anfang an kein einheitliches Ganzes, sondern entwickelte sich zu einem geschlossenen wirtschafts- und finanzpolitischen System erst allmählich aus verschiedenen wirtschafts- und finanzpolitischen Einzelmaßnahmen. Sinn und Zweck dieser Arbeit ist es nun, rückschauend auf diese Entwicklung das Grundsätzliche dieser Politik herauszuarbeiten. Ihr besonderer Schwerpunkt liegt dabei auf der Beantwortung der Fragen, inwieweit eine staatliche konjunkturaktive Kreditpolitik ein Heilmittel ist, um einen wirtschaftlichen Schrumpfungsprozess zum Stillstand zu bringen, inwieweit ein Reizmittel, um die wirtschaftliche Entwicklung voranzutreiben und inwieweit ein Gift, das schließlich den Ruin von Marktwirtschaft und Finanzwirtschaft herbeiführt.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Wir ermittelten die Geschwindigkeitskonstanten sowie die Arrhenius sehen Aktivierungsenergien und Aktionskonstanten der alkalischen Hydrolyse einer Reihe von Di- und Tripeptiden. Die zur Gewinnung der kinetischen Daten führende quantitative Analyse der Hydrolysate gelang, indem die Peptide vor ihrer Hydrolyse geeignet mit 14C markiert, die Hydrolysate mit Hilfe der Papierchromatographie bzw. der Zonenelektrophorese getrennt und die isolierten Hydrolyseprodukte auf Grund ihrer Radioaktivität quantitativ bestimmt wurden.
Der zeitliche Verlauf der alkalischen Hydrolyse von Di- und Tripeptiden wird durch ein Zeitgesetz 1. Ordnung bezüglich des Peptids und bezüglich der Hydroxylionen dargestellt. Die Abstufungen der Aktivierungsenergien, die den einzelnen Peptidbindungen in Di- und Tripeptiden zugeordnet sind, lassen sich durch die Annahme deuten, daß die Hydrolyse nach dem BAC 2-Mechanismus verläuft. Die Aktionskonstanten wachsen, wenn auch nicht regelmäßig, mit den Aktivierungsenergien.
Beiträge zur Erweiterung der Hückel'schen Theorie der π-Elektronensysteme [Pi-Elektronensysteme]
(1963)
Beiträge zur Erweiterung der Hückel'schen Theorie der Pi-Elektronensysteme Hückel entwickelte 1931 ein Verfahren zur quantenmechanischen Berechnung zahlreicher Eigenschaften von zr-Elektronensystemen. Obwohl die Theorie halbtheoretisch ist, hat sie einen wesentlichen Beitrag zum Verständnis solcher Eigenschaften von ungesättigten und aromatischen Verbindungen geliefert, die dem Grundzustand der Moleküle zugeschrieben werden können, so z. B. der Resonanzstabilität und der Reaktivität. Doch ist sie nur in der Lage, die Eigenschaften dieser Verbindungen richtig zu beschreiben, die durch angeregte Zustände der Moleküle mitbestimmt werden, wie z. B. die Spektren, wenn man für das Resononanzintegral einen entsprechenden Wert verwendet, der von dem für den Grundzustand benutzten bedeutend abweichen kan. Im ersten Abschnitt der vorliegenden Arbeit wird die Hückel'schen Theorie der Pi-Elektronensysteme diskutiert. Einen nur annähernd vollständigen Überblick über die Beiträge zu dieser Theorie zu geben, würde den Rahmen der Arbeit überschreiten. Daher wurde sich im Wesentlichen darauf beschänkt, die Grundgedanken und die Näherungen des Verfahrens klar darzustellen und kritisch zu betrachten, sowie die Anwendungsmöglicheiten zu beschreiben. Hartmann hat 1960 eine Erweiterung der Hückel 'schen Theorie vorgeschlagen, die auch solche Eigenschaften ungesättigter und aromatischer Verbindunsen richtig erfaßt, die aur der Beteiligung angeregter Zustände beruhen, wie am Beispiel der Spektren gezeigt wurde. Im zweiten Teil dieser Arbeit wird die Hückel-Hartmann'sche Theorie der Pi-Elektronensysteme dargestellt und die Ergebnisse mit denen der Hückel'schen Theorie verglichen. Hartmann selbst hat die Erweiterung nur für gleichatomige Pi-Elektronensysteme und unter zahlreichen Vernachlässigunen durchgeführt. Dieser Umstand und die wenigen zu der Theorie erst vorliegenden Arbeiten ließen es wünschensert erscheinen, die Hückel-Hartmannsche Theorie der Pi-Elektronensysteme systematisch und in möglichst allgemeiner Form zu diskutieren. Im dritten Abschnitt der Arbeit wird daher eine Generalisierung der Hückel-Hartmannt'schen Theorie durchgeführt. Mit Hilfe des entwickelten Verfahrens wird anschließend der Einfluß der Überlappungen auf die Ergebnisse untersucht und eine Erweiterung der Hückel-Hartmann'schen Theorie auf heteroatomare Pi-Elektronensysteme angegeben.
Für ein System ('ideales Gas') von N miteinander nicht wechselwirkenden Teilchen oder Zuständen, deren Wellenfunktionen φ(x) der Randbedingung φ(x)=0 für x aus Ŵ. gehorchen sollen, (W sei dabei die Oberfläche eines geschlossenen Hohlraumes Ŵ beliebiger Gestalt), ist von verschiedenen Autoren eine halbklassische Eigenwertdichteformel angegeben worden. Diese hängt nur linear über die Integrale V ,W und L über Ŵ (Volumen, Oberflächeninhalt und totale Krümmung von Ŵ) von der Gestalt. des Hohlraumes ab. Während von H. Weyl mathematisch bewiesen, werden konnte, daß der führende Volumterm im Gebiet großer Eigenwerte alle folgenden Terme überwiegt, konnte für den Oberflächenterm eine gleichartige Vermutung bisher nur numerisch begründet werden. Von dieser halbklassischen Eigenwertdichteformel ausgehend, werden die thermodynamischen Relationen des idealen Gases aufgebaut und einige Größen wie innere Energie, spezifische Wärme sowie die Oberflächen- und Krümmungs-Spannung für die Grenzfälle starker, ein Gebiet mittlerer und schwacher Entartung explizit berechnet, und zwar sowohl für die Fermi-Dirac als auch die Bose-Einstein-Statistik, als auch für deren klassischen Grenzfall, die Boltzmann-Maxwell-Statistik (s.Diagramm). Ausgenommen wird nur der Spezialfall der Einsteinkondensation, weil hier die (nur im Gebiet großer Eigenwerte gültige) halbklassische Eigenwertdichteformel nicht angewendet werden darf. Die in dieser Arbeit untersuchten quantenmechanisch bedingten Oberflächeneffekte idealer Quantengase sind experimentell bisher wenig untersucht worden; für Molekülgase sind sie verschwindend klein. Die experimentell beobachtete Oberflächenspannung stabiler Atomkerne wird von dem Modell, das den Kern als ideales, entartetes Fermigas der Temperatur T beschreibt, im wesentlichen richtig wiedergegeben. Mit dem in Kap. 3b) abgeleiteten Ausdruck für die Oberflächenspannung stark entarteter idealer Fermigase endlicher Temperatur kann eine Voraussage über die Oberflächenspannung angeregter Atomkerne gemacht werden.
1. Das Dissoziations- und Reaggregationsverhalten von Epidermiszellen der Larven von Xenopus laevis wird unter verschiedenen Bedingungen in vitro mit Hilfe des Zeilrafferfilmes untersucht. Die Kultur der Schwänze erfolgt in Salzlösung nach STEINBERG und Serum hämolysierten Kälberblutes. Für die Reaggregation werden serumfreie Salzlösungen verwendet. 2. Am Auswandern der Zellrasen beteiligen sich alle dem Deckglas anliegenden Zellen. Sie bilden einen Plasmasaum in die Richtung aus, in der sie sich fortbewegen. Der Zusammenhalt zwischen den Zellen wird hierbei nicht gelöst. 3. Die Zellrasen lassen sich mit 0;05%igem EDTA in Einzelzellen auflösen; dabei tritt eine Trennung des Zellplasmas in ein zentral gelegenes granuliertes Plasma und einen hyalinen Plasmasaum auf. Bei längerer Einwirkung des EDTA werden die hyalinen Säume eingezogen. Die Zellen sind dann abgekugelt; es brechen blasenförmige "Lobopodien" aus den Zellen hervor und verschwinden wieder: "Blubbern". 4. In Gegenwart von Ca++ breiten sich die Zellen wieder auf dem Deckglas aus. Die Bildung "stabilisierter Aggregate" erfolgt in Ringerlösung (mit 0,02% CaCl2), in isotonischer Calciumchlorid-Lösung, in isotonischer Kochsalz- und Kaliumchlorid-Lösung, wenn Calciumchlorid mindestens 0,02%ig enthalten ist. Es wird angenommen, daß die einwertigen Kationen für die Zellbewegung und Reaggregation nur als Ladungsträger wirksam sind. In KCN-haltiger (2,5 X 10-3 M) und in PCMB-haltiger (2,5 X 10-3 M) Ringerlösung ist ebenfalls Reaggregation möglich. Unter dem Einfluß von PCMB ist die Stabilisierung der Zollgrenzen jedoch nicht von Dauer. Die Aggregate werden wieder aufgelöst; die Zellen zeigen keine Kontakthemmung mehr, sie wandern übereinander. 5. Wird das Calciumchlorid der Ringerlösung durch die äquimolare Menge Magnesiumchlorid ersetzt, so werden die Kontakte nicht stabilisiert, sondern "sliding sheets" gebildet. Keine Reaggregation ist in Calcium-haltiger Natrium- oder Kaliumchlorid-Lösung einer Konzentration unter 0,33 M und in Ringerlösung unter pH 4,0 möglich. Die Zellen sind dann auch zu keiner Ortsbewegung mehr fällig. Selbst kurze (3 min) Trypsinbehandlung (2%) verhindert die Reaggregation der Zellen im serumfreien Medium. 6. Besonders die Versuche zur Störung des Energiehaushaltes der Zellen legen nahe, daß die dabei zu beobachtenden Viskositätsänderungen im Hyaloplasmasaum auf einer Änderung des Kontraktionszustandes in ihm enthaltener kontraktiler Proteine beruhen. Die Auswirkungen von PCMB, niederem pH und geringer Ionenstärke deuten auf die Beteiligung eines Membranpotentials an der Steuerung der Viskositätsänderung hin. Diese Hypothese wird zu Ergebnissen der Muskelphysiologie in Beziehung gesetzt.
The formation of aliphatic α-amino acids by X-ray induced carboxylation of simple amines or amination of simple carboxylic acids is not favored over the formation of other amino acids. The new carboxylic and amino groups are more or less distributed statistically over the carbon atoms of the starting material. On radiationchemical formation of aliphatic hydrocarbons over C3, therefore, an increasing amount of unusual amino acids is produced. The results are influenced by various parameters such as temperature, pH, concentration, linear energy transfer and total dosis of radiation applied. Also peptides can be formed radiationchemically. However, the formation of greater molecules by radiationchemical processes under the conditions of a primitive earth seems to have only a low probability. The reaction mechanisms of radiationchemical carboxylation and amination are discussed.
Das vorliegende Dissertationsthema ist aus einem ehemaligen Hauptreferat über das deutsche Städtewesen im Investiturstreit hervorgegangen, das ich 1961/62 bei Prof. W. Lammers in Hamburg anfertigte und das ich bei ihm in Frankfurt a. M. ab 1965 als Dissertationsthema für Worms bearbeitete, nun mit Berücksichtigung des Münz-, Handels- und Verkehrswesens sowie des Judentums, dann 1971 fertigstellte und abgab, sowie 1972 die zugehörige Prüfung bestand.
Die vorgeschriebene Drucklegung verzögerte sich allerdings erheblich, da mir seit 1974 die dienstlichen Forschungsarbeiten an der Universität Kiel (SFB 17 A 7 und A 3) keine Zeit ließen für die nötige Umarbeitung meines Themas, die ich erst nach dem Ende des SFB (1983/85) erhielt. Demgemäß arbeitete ich seitdem auf Gutachterwunsch an einer stark gekürzten Neufassung meines Wormser Themas und an einer erweiterten Neufassung für die Städte Worms, Mainz, Speyer und Köln unter Einbeziehung der Siegel- und Münzkunde sowie der Archäologie. Dadurch wurde aber der Arbeits- und Zeitaufwand ganz beträchtlich vergrößert und die Fertigstellung verzögert, zumal archäologisch-historische Auftragsarbeiten (zuletzt für das Archäologische Landesamt Schleswig 1997–2002) sie mehrfach länger unterbrachen, so daß ich beide erst nach dem Eintritt in den Ruhestand (Frühjahr 2003) vollenden konnte. Beide Textfassungen sind also vom Sommer 2003 bis zum Sommer 2005 aufgrund der genannten Vorarbeiten hergestellt worden. ...
Die kyprischen Grabreliefs
(1974)
Diese Arbeit verfolgte zwei Zielsetzungen. Zum einen sollten die bislang nur verstreut und unzureichend oder überhaupt nicht publizierten antiken Grabreliefs von Kypros im Sinne des Pfuhlschen Corpus möglichst geschlossen vorgelegt werden. Zum anderen waren die Eigentümlichkeiten dieser Gattung zu untersuchen. Diese ergaben sich aus dem Wesen der kyprischen Kultur, einer Randkultur, die wechselnden kulturellen Einwirkungen ausgesetzt war. Seit dem späteren 6. Jh. v. Chr. gewinnt der griechische Einfluß langsam an Boden. Gleichzeitig sind Einflüsse aus dem syrischen und phönikischen Bereich wirksam. Die kyprischen Grabreliefs weisen einige stilistische Besonderheiten auf, die teilweise als Ausdruck des überwiegend provinziellen Charakters der kyprischen Kunst zu werten sind. Die Neigung zur Frontalität ist stark ausgebildet. Das Verständnis für räumliches Empfinden ist unterentwickelt. Dementsprechend sind die Figuren häufig unplastisch, die ist Gewandfältelung überwiegend mit graphischen und nicht mit plastischen Mitteln gebildet. Unverkennbar ist eine konservative Grundeinstellung. Dies kommt am deutlichsten in dem langen Fortbestehen eines subarchaischen Stils, in der unveränderten Tradierung der Gelagereliefs, überhaupt in dem Festhalten an einmal eingeführtem Formengut zum Ausdruck. Daneben sind noch drei spezielle Phänomene hervorzuheben: 1. Das Gelagerelief. Es macht fast die Hälfte der erhaltenen Grabreliefs aus. Es ist seit dem frühen 5. Jh. v. Chr. für Golgoi typisch und findet auch außerhalb von Kypros keine Parallelen. Seine geistigen Wurzeln sind zweifelsfrei im späthethitischen und syrischen Bereich zu suchen, ikonographisch ist es möglicherweise aus der phönikischen bzw. syrischen Ikonographie abzuleiten, nicht jedoch vom griechischen Totenmahlrelief. Stockwerkstele und Löwenbekrönung sind mit dem Gelagerelief verbunden. 2. In Marion zeigt sich im ausgehenden 5. und 4. Jh. v. Chr. ein anderes Phänomen. Hier war der griechische Impuls von ausschlaggebender Bedeutung. Alle von griechischen Künstlern gearbeiteten Reliefs stammen aus Marion. Auch die von einheimischen Künstlern nach griechischen, d.h. überwiegend nach attischen, vereinzelt aber auch nach jonischen Vorbildern gearbeiteten Reliefs kommen bis auf wenige Ausnahmen aus dem weiteren Umkreis von Marion. Demzufolge ist für diese Stadt eine wichtige Rolle im Hellenisierungsprozeß der kyprischen Plastik zu vermuten. 3. Der runde, schlanke, mit Basis und Kapitell versehene Grabaltar ist die Grabmalform der Kaiserzeit. Im ihm liegt eine kyprische Sonderform des Grabaltars vor. Gelegentlich ist auf dem Säulenkörper die Büste des Toten in einer Rundbogennische angebracht. In der Zeit, der die kyprischen Grabreliefs angehöhren, nahm die kyprische Kunst zahlreiche Impulse verschiedener Art von den Nachbarkulturen auf. Zu einem ebenso starken gegenseitigen Austausch kam es aber nicht. So blieben auch die an den Grabreliefs zu beobachtenden Eigen- bzw. Weiterentwicklungen auf Kypros beschränkt.
Ziel dieser Arbeit ist es, einen Überblick über die Verhaltensweisen zoolebender Zwergschimpansen (Pan paniscus Schwarz 1929) zu geben. Dabei nimmt die Beschreibung des Sozialverhaltens eine zentrale Stellung ein. Dieser Aspekt ist von besonderem Interesse, weil die Zwergschimpansen oder Bonobos durch eine regelmäßige Überflutung großer Teile ihres Lebensraumes zu einer stärker arborealen Lebensweise gezwungen sind (s. HOFW 1975) als die zweite Schiopansenart, Pan troglodytes. Das läßt neben morphologischen auch ethologische Anpassungen an ein Baumleben erwarten, und zwar sowohl in Bereichen wie Lokomotion etc.. als auch in Bezug auf das Sozialverhalten. Gerade auf diesem Gebiet aber ist unser ohnehin bruchstückhaftes Wissen über die Ethologie des Bonobo besonders gering....
Komplexität und Zufälligkeit
(1978)
Anknüpfend an Untersuchungen von Nachwirkungserscheinungen vor allem an der Taenia coli des Meerschweinchens, bei denen Nachdehnung und Relaxation mit einer Hyperbelfunktion beschrieben wurden, gehörte es zu den Zielen dieser Arbeit, Gesetzmäßigkeiten im zeitlichen Verlauf der Nachdehnung bei dem anders strukturierten Uterushorn in verschiedenen Badlösungen zu untersuchen und insbesondere zu prüfen, ob die Hyperbelfunktion auch darauf angewendet werden kann und welche Rückschlüsse auf die funktionelle Struktur möglich sind.
Nach Voruntersuchungen an 30 Uterushörnern, bei denen auch Fragen der Tierwahl und der Standardisierung des Hormoneinflusses untersucht wurden, folgten nach ausführlicher biomathematischer Planung Hauptuntersuchungen an 58 Uterushörnern. Ein weiteres Ziel der Arbeit, eine wesentliche Verbesserung der Datenerfassung, konnte durch Einsatz eines Kurvenfolgers in Verbindung mit einer EDV-Anlage und eigenen Datenerfassungsprogrammen erreicht werden, wobei besonderer Wert darauf gelegt wurde, die Reproduzierbarkeit der Datenerfassung näher zu untersuchen, um die erzielte Genauigkeit, die höher als bei allen vergleichsweise zitierten Arbeiten liegt, nachprüfbarangeben zu können. Die erweiterten Möglichkeiten der Datenerfassung lieferten den Anstoß zum Erkennen von Problemen in der bisher üblichen Form der Datenauswertung, der Wertestandardisierung und der Nachdehnungsdefinition; hierfür konnten Lösungswege erarbeitet werden: u.a. ein EDV-Programm zur iterativen Hyperbelanpassung, Definition neuer Nachdehnungsgrößen und eine Aufgliederung in eine modellunabhängige und eine modellabhängige Auswertung.
Nach einem ausführlichen Überblick Uber die Physiologie glatter Muskulatur unter den Aspekten von Funktion und Struktur sowie einer Auseinandersetzung mit dem Begriff des Modells erfolgte eine zusammenfassende Datenauswertung: eine univariate Mehrwegkovarianzanalyse bestätigte nicht nur die Bedeutung des Faktors „Badlösung”, sondern ermöglichte auch unerwartete Aussagen über Kovariablen und Wechselwirkungen, die in früheren Arbeiten nicht in die Fragestellungen mit einbezogen worden waren; iterative Kurvenanpassungen zeigten die Überlegenheit mehrerer einfacher logarithmischer und exponentieller Funktionen im Vergleich zur Hyperbelfunktion. Außerdem waren Vergleiche zwischen verschieden strukturierten Muskeln und zwei Tierarten möglich.
Aus den gewonnenen Ergebnissen werden einige Schlußfolgerungen gezogen und Deutungen für die funktionelle Struktur des glatten Muskels gegeben.
Das Kniegelenk besitzt hohe Morbidität. Hierbei stellt das Femoropatellargelenk (FPG) häufig den Ausgangspunkt von Affektionen dar. Neben erworbenen sind auch zahlreiche anlagebdingte Störungen des FPG bekannt. Große Bedeutung kommt den Dysplasien des FPG und Dystopien bzw. Dislokationen der Patella zu.
In diesem Zusammenhang lassen sich gehäuft Lageanomalien der Patella - meist als Patella a)ta imponierend - beobachten. Diese Lageanomalien zu bestimmen und damit ein geeignetes diagnostisches Kriterium zu begründen, ist eine wesentliche Intention der vorliegenden Studie.
Einleitend werden anatomische Gegebenheiten dargestellt, thematisch besonders interessierende Aspekte werden näher betrachtet; dies gilt v.a. für funktionelle Aspekte. Auch auf die breite und meist komplexe Ätiopathogenese patellarer Affektionen wird näher eingegangen - der vorgestellte methodische Ansatz nimmt hierauf vielfach Bezug.
Es wird eine Methode entwickelt, die die Bestimmung der (vertikalen) Patellaposition (Patellahöhenwinkel "a") in möglichst exakter und reproduzi erbarer Weise ermöglicht. Bei diesem Verfahren werden potentielle Fehleermöglichkeiten besonders beachtet, damit bereits beim Festlegen einzelner Meßstrecken und -punkte gröbere systematische Fehler vermieden werden.
Als Normalkollektiv wurden 181 Patienten mit frischen Meniscusläsionen selektiert, während das pathologische Kollektiv 121 Patienten mit Patellaluxationen und Patellasubluxationen beinhaltete. Bezüglich der Häufigkeit des Vorkommens einer Patella alta zeigten beide untersuchten Kollektive deutliche Unterschiede; im Normalkollektiv fanden sich ca. 2 % Patellae altae, bei den Patellaluxationen waren es ca. 30 %; darüber hinaus sind weitere ca. 30 % Patellae altae im Ubergangsbereich als fakultativ pathologisch ,zu berücksichtigen.
Ein normaler Patellahöhenwinkel (+/- 1 s) liegt zwischen 10° - 21°, bei einem Mittelwert von 16°. Ein fakultativ pathologischer Winkel findet sich bei 4° - 10° bzw. 21° - 27°. Bei einer Patella alta ist der Höhenwinkel größer als 27° (größer + 2 s).
Andere aus der Literatur bekannte Methoden werden dargestellt und analytisch nach Vor- und Nachteilen erörtert. Anschließend werden alle Methoden - einschließlich der eigenen - kritisch miteinander verglichen; hieraus lassen sich manche Tendenzen, Ähnlichkeiten bzw. Unterschiede und noch ungelöste Schwierigkeiten eruieren.
Die vorliegende Methode wird auch für den klinischen Routinebetrieb empfohlen. Hierzu werden praktische Hinweise gegeben.
Sportmedizinische Trainingsberatung von Judosportlerinnen anhand von Labor- und Felduntersuchungen
(1989)
In dieser Arbeit wurden Daten der deutschen Judonationalmannschaft der Frauen erhoben. Es wurden mehrere Labortests und ein Feldtest durchgeführt. Der Feldtest wurde auf der Grundlage von eigenen Wettkampfbeobachtungen und Vorversuchen entwickelt. Die Belastung der Probantinnen durch die Tests wurde mittels beschreibender statistischer Parameter beurteilt. Die Untersuchung auf ihre sportartspezifische Aussagefähigkeit geschah durch Korrelation mit der Kaderzugehörigkeit und dem Wettkampferfolg.
Die Genese der Leptinite und Paragneise zwischen Nordrach und Gengenbach im mittleren Schwarzwald
(1990)
Nachdem die Erforschung der anatektischen Prozesse lange Jahre das Bild des metamorphen Schwarzwalds prägte, wurden durch das Erkennen von Niedrigdruck- und Mitteldruck-Faziesserien (BLÜMEL 1983) und durch die lithologische Gliederung (WIMMENAUER 1984) neue Akzente im metamorphen Grundgebirge gesetzt. Im Rahmen des Kontinentalen Tiefbohrprogramms der Bundesrepublik Deutschland (KTB) wurde im Raum Nordrach-Gengenbach eine Leptinit-Paragneis-Wechselfolge kartiert. Vier Einheiten konnten unterschieden werden: (1) homogene Areale aus biotitarmen Leptiniten, (2) homogene Areale aus biotitreichen Leptiniten, (3) Areale aus verschiedenen, psammopelitischen Paragneisen und (4) eine Wechsellagerung im Aufschlussbereich zwischen Paragneisen und biotitarmen Leptiniten. Die ganze Wechselfolge stellt einen metamorphen, vulkano-sedimentären Komplex aus mindestens zwei verschiedenen Rhyolithen, rhyolithischen Tuffen, Tonsteinen, Grauwacken/Arkosen und Tuffiten dar. Die Struktur des Arbeitsgebiets wird durch die Wippersbach-Mulde, einen Bereich entlang des Haigerach-Tals mit Tendenz zu einem hochtemperatur-mylonitischen Gefüge und den Nordracher Granit, der parallel zur Foliation der Metamorphite intrudierte, geprägt. Im Mittelbachtal ist in streichender Verlängerung der Zone Diersburg-Berghaupten eine ca. 200 m breite Störungszone aufgeschlossen, die mehrphasig mylonitisch und kataklastisch überprägt wurde. Die biotitarmen Leptinite bestehen im wesentlichen aus 40 % Quarz und 60 % Feldspat. Sie sind nahezu massig, feinkörnig-ungleichkörnig (0,1 - 1 mm) mit amöboiden Kornformen. Mylonitische Gefüge kommen untergeordnet vor. Ihr Mineralbestand lautet: Quarz, Biotit, Granat, Sillimanit, Cordierit, Spinell, Ilmenit, Rutil. Die ehemaligen Hypersolvus-Feldspäte Mesoperthit und Antiperthit zeigen eine Entwicklungsreihe zu diskreten Plagioklas(An10-20)- und Orthoklas-Körnern. Um Granat ist eine Corona aus Cordierit-Quarz-Symplektit oder hellgrünem Biotit entwickelt. Die biotitreichen Leptinite haben durch den erhöhten Biotit-Gehalt (um 3 %) ein flaseriges Gefüge. Ihnen fehlt Mesoperthit, dafür führen sie reichlich Antiperthit (An20). Monazit ist ein charakteristischer akzessorischer Gemengteil. Die chemische Zusammensetzung der Leptinite entspricht der von Rhyolithen und ist über viele km nahezu konstant. Eine Probe ist stark an Uran verarmt. Die untersuchten Leptinite ähneln nach Auftreten, Chemismus und Metamorphose den Leptiniten von Todtmoos im Südschwarzwald. Die Paragneise werden in Quarz-Feldspat-reiche Meta-Grauwacken/Meta-Arkosen und Cordierit-reiche Meta-Pelite gegliedert. Das Gefüge ist feinkörnig, lagig-flaserig, teilweise mittelkörnig-migmatitisch und selten mylonitisch oder metablastisch. Der Mineralbestand lautet: Quarz, Plagioklas(An30), Antiperthit, Orthoklas, Biotit, Cordierit, Granat, Kyanit, Sillimanit (meist pseudomorph nach Kyanit), Andalusit (kontaktmetamorph), Spinell, Diaspor, Rutil, Graphit, Ilmenit und Sulfide. Die chemischen Analysen der Paragneise wurden mit denen von nicht metamorphen Sedimenten verglichen: die cordieritreichen Paragneise konnten als metamorphe Tongesteine bestimmt werden, die Quarz-Feldspat-reichen Paragneise sind metamorphe Grauwacken oder Arkosen, da sich Grauwacken und Arkosen nach ihrer chemischen Analyse nicht eindeutig unterscheiden lassen. Im Arbeitsgebiet gibt es nur ein kleines Amphibolit-Vorkommen. Es handelt sich um einen Cummingtonit-führenden Amphibolit, bei dem sich noch ein früheres Metamorphose-Stadium unter hohen Drücken nachweisen lässt. Der Strukturzustand der Alkalifeldspäte (Or85) ist lithologieabhängig und liegt zwischen Orthoklas und Maximum Mikroklin. Granat ist nur schwach diffusions-zoniert. Die Ca-reichen Zentren und Ca-armen Ränder der Granate zeigen eine Druckentlastung an. Aus den Biotit-Analysen (TiO2 bis 5,3 Gew.-%) wurde abgeleitet, da die Tschermak-Substitution die AlVI-Variation nicht erklären kann, sondern dass der AlVI-Gehalt in den untersuchten Biotiten wahrscheinlich vom Fe/(Fe+Mg)-Verhältnis des Gesteins abhängt. Cordierit (teilweise Fe-reich) ist meist pinitisiert. Bei einigen Piniten kann nicht ausgeschlossen werden, dass nach NEDELEC & PAQUET (1981) nicht Cordierit sondern eine Schmelze das Edukt war. Grüner und brauner Fe-Mg-Zn-Aluminat-Spinell kommt vorwiegend zusammen mit Cordierit (±Diaspor) als Corona um Kyanit vor. Das ganze Aggregat wird durch eine äußere Plagioklas-Corona vom Rest des Gesteins abgekapselt. Die metamorphe Entwicklung der untersuchten Gesteine beginnt mit einem druckbetonten Stadium (Hochdruck-Granulitfazies bis ?Eklogit-Fazies) und der Paragenese Granat + Kyanit + Hypersolvus-Feldspäte + Quarz ± Biotit. Die Temperatur lässt sich nur recht unsicher zu 700 °C abschätzen. Mit dem jetzt vorliegenden Plagioklas ergibt sich mit dem GPAQ-Thermobarometer, dem GRAIL- und dem GRIPS-Barometer ein Druck um 7-9 kbar, der als gut belegter Mindestdruck interpretiert wird. Falls aber während dieses Stadiums die Ca-reichen Granat-Zentren der biotitarmen Leptinite mit einem Hypersolvus-Alkalifeldspat (3 Mol-% Anorthit-Komponente nach der CIPW-Norm der Gesteinsanalyse) und Kyanit im Gleichgewicht standen, dann ergeben sich deutlich höhere Drücke von 14-19 kbar. Dieses Metamorphose-Stadium lässt sich mit dem geochronologischen 480 Ma-Ereignis (Ordovizium) korrelieren. Darauf folgt ein Druckentlastungs-Zwischenstadium mit der Umwandlung von Kyanit in Sillimanit und der Bildung der Spinell-Coronen um Al2SiO5-Minerale. Den Abschluss der Metamorphose-Entwicklung bildet ein statisches Cordieritisierungs-Stadium (LP-HT-Metamorphose, Cordierit-Kalifeldspat-Paragenese). Es bewirkte das statische Wachstum von reichlich Cordierit in Biotit-Sillimanit-reichen Teilgefügen und um Granat. Die Temperatur lag dabei nach dem Granat-Biotit-, dem Granat-Cordierit- und dem Granat-Ilmenit-Thermometer bei 650±50 °C. Der Druck betrug dabei nach dem GPAQ-Thermobarometer 3±2 kbar. Dieses Metamorphose-Stadium ist im NE des Raums Nordrach-Gengenbach stark ausgeprägt, im SW, wo das frühe, druckbetonte Stadium gut erhalten ist, nur schwach. Das statische Cordieritisierungs-Stadium lässt sich in das Karbon einstufen.
Über Dihydropyrazine vom Typ 13 sind nach Deprotonierung mit KHMDS in Position C-2' und Umsetzung mit Elektrophilen Dihydropyrazine des Typs 41 zu 74-80 % mit Diastereoselektivitäten von 57-67 % d.e. zugänglich. Dihydropyrazine vom Typ 41 sind Vorstufen für ce-Alkyl-Carbonsäuren und liefern bei der Hydrolyse mit Kallum-rert.-Butanolat/Wasser Carbonsäuren 42 zu 90 %. Die Hydrolyse verläuft racemisierungsfrei. Der chirale Hilfsstoff 3a kann zurückgewonnen werden. Die Q-silylgeschlitzten Dihydropyrazine 68a,b sind hochdiastereoselektiv baseninduziert zu Dihydropyrazinen der Typen 70, 71 alkylierbar. Die Dihydropyrazine 74 liefern über eine Retro-Aldolreaktion bei der Umsetzung mit Kalium-tert-Butanolat unter Selbstreproduktion des stereogenen Zentrums an C-2 diastereoselektiv die Dihydropyrazine 77 in Ausbeuten von 55 - 60 % (d.e.= 56 75 %).
Die vorliegende Arbeit befallt sich im theoretischen Teil mit den Grundlagen zu Strahl-Resonator-Wechselwirkungen bei Beschleunigerresonatoren und mit den sich daraus ergebenden Konsequenzen bei der Resonatorentwicklung für zukünftige lineare Kollider mit Multibunch-Betrieb. Zur Bekämpfung der vor allem im Multibunchbetrieb störenden Long-Range-Wakefelder müssen die schädlichen Moden möglichst so stark bedämpft werden, daß ihre Felder bis zum Eintreffen des nächsten Bunches auf ein erträgliches Maß abgeklungen sind. Im experimentellen Teil befaßt sich diese Arbeit daher mit der Entwicklung von Meßmethoden zur Bestimmung sehr kleiner Resonatorgüten sowie sehr kleiner transversaler Shuntimpedanzen bzw. sehr kleiner Feldpegel in stark störmodenbedämpften Beschleunigerresonatoren. Diese Meßmethoden sind an mehreren S-Band-Modellresonatoren (Betriebsfrequenz lag bei etwa 2.4 GHz) mit verschiedenen Dämpfungssystemen, die für den Einbau in einen normalleitenden Linearbeschleuniger für einen Kollider geeignet wären, erfolgreich getestet worden. Die Feldmessungen an den Modellresonatoren haben bisher unbekannte Gesetzmäßigkeiten bezüglich des Verhaltens dieser Dämpfungssysteme ergeben. In einer kurzen Beschreibung und Diskussion der sechs wichtigsten Vorschläge für zukünftige lineare Kollider wurde ein Überblick über die Unterschiede bei diesen verschiedenen Konzepten gegeben. Zunächst konnten über eine qualitative Diskussion der beim Linearbeschleuniger vom Iristyp vorkommenden Beam Blowup Phänomene, wie der regenerative BBU und der cumulative BBU, die Erscheinungsformen und die physikalischen Ursachen dieser BBU Phänomene verstanden werden. Hier zeigt sich, daß bei Irisstrukturen die HEM11-Moden die Hauptursache sowohl für den regenerativen- als auch für den cumulativen BBU sind. Der dritte Abschnitt führte in eine allgemeine Methode zur quantitativen Beschreibung der sogenannten Strahl-Resonator-Wechselwirkung ein. Diese Methode heißt Condon- Methode und erlaubt die Berechnung von BBU verursachenden Wakefeldern über eine Eigenwellenentwicklung aus den Eigenmoden des leeren Rersonators. Im vierten Abschnitt wurde durch die Herleitung des Theorems von Panofsky-Wenzel die Theorie der Strahl-Resonator-Wechselwirkung vervollständigt, wonach der einer Testladung während der Durchquerung eines felderfüllten Resonators mitgeteilte Transversalimpuls vollständig durch die räumliche Verteilung der elektrischen Longitudinalkomponente allein bestimmt ist. Damit erhält man also eine Aussage über die Wirkung der in Beschleunigerresonatoren feldanfachenden vorauslaufenden Ladungen auf die nachfolgenden. Dabei konnte auch die Frage geklärt werden, welche Moden zylindrischer Symmetrie wegen ihrer transversal ablenkenden Wirkung für den Teilchenstrahl gefährlich sind. Hier zeigt sich, daß alle BBU verursachenden Moden TM2np- bzw. TM2np-Moden sind, d.h., die Moden mit dipol- bzw. quadrupolartiger Symmetrie. Die Anwendung der in den Abschnitten drei und vier entwickelten Theorie zur Strahl-Resonator-Wechselwirkung konnte im Abschnitt fünf anhand dreier, für die Beschleunigerphysik sehr interessanter Beispiele gezeigt werden. Im ersten Beispiel gelang die Beschreibung der Wechselwirkung eines in Längsrichtung homogenen Strahls, welcher transversal Betatranschwingungen vollführt, mit der TM110-Mode eines Zylinderresonators. Dieses Beispiel ist von praktischer Bedeutung bei Linearbeschleunigern. die bei hohem Duty Cycle betrieben werden, also z.B. beim RACE TRACK Mikrotron oder bei supraleitenden Linacs. Beim zweiten Beispiel hat die Anwendung der Theorie auf eine Irisstruktur zu Formeln geführt, die sich Fair eine numerische Berechnung des Startstroms zum regenerativen BBU eignen, was jedoch relativ aufwendig ist. Es konnte aber auch eine einfache Abschätzungsformel für den Startstrom durch die Anwendung des Poyntingschen Satzes auf eine differentielle Länge des der Irisstruktur entsprechenden Wellenleiters abgeleitet werden. Aus der Bedingung, daß die durch den Strahl erzeugte Leistung pro Längeneinheit gleich den Leistungsverlusten pro Längeneinheit ist, findet man den Startstrom für den regenerativen BBU. Das letzte Beispiel, die Wechs 1 e Wirkung einer hochrelativistischen Punktladung mit einem beliebigen Resonator, ist auch das wichtigste. Hier wurden die Wakefelder aus einer simplen Energiebilanzbetrachtung abgeleitet, da eine Berechnung nach der Condon-Methode relativ aufwendig und langwierig wäre. Diese Vorgehensweise hat hier zu einem tieferen physikalischen Verständnis der Vorgänge im Resonator geführt. Die mit Hilfe einer Punktladung abgeleiteten Wakefelder sind Greensfunktionen. die zur quantitativen Beschreibung des cumulativen BBU’s bei linearen Kollidern benutzt werden können. Die Diskussion der anhand der Beispiele gewonnenen Ergebnisse am Ende des fiinften Abschnitts führte zu verschiedenen Maßnahmen zur Verringerung der schädlichen Strahl-Resonator-Wechselwirkung. Hier hat sich gezeigt, daß sowohl der regenerative BBU als auch der cumulative BBU u. a. durch eine Verringerung der Resonatorgüte der strahlstörenden Dipolmode verhindert werden können. Im sechsten Abschnitt erfolgte die noch ausstehende quantitative Beschreibung des cumulativen BBU mit Hilfe der im vorangehenden Abschnitt am dritten Beispiel gewonnenen Formeln für die Wakefelder. Die Berechnung der Strahlablage und Strahlrichtung geschieht hier über einen Matrizenformalismus, der aus der Idee heraus entstand, die Beschleunigersektionen des linearen Kolliders durch Resonatoren verschwindender Länge zu ersetzen. Uber den Matrizenformalismus konnte die durch den Einfluß von Beschleunigung, Fokussierung und Wakefeldern doch recht komplizierte Teilchenbewegung sehr elegant formuliert werden, jedoch eignet sich dieser Formalismus nur für numerische Zwecke. Abschätzungen sind in diesem allgemeinen Fall unmöglich. Durch die Einführung eines sehr restriktiven Modells, des sogenannten DAISY-CHAIN Modells, welches nur bei sehr stark bedämpften Beschleunigersektionen gültig ist. hat sich der Matrizenformalismus auf sehr einfache, der analytischen Berechnung zugängliche Gleichungen reduzieren lassen. Die Bedämpfung der Beschleunigersektionen muß dabei so stark sein, daß eine Ladung innerhalb einer ganzen Kette äquidistanter Ladungen nur ein signifikantes Wakefeld der unmittelbar vorrauslaufenden Ladung erfährt. Wie stark im Einzelfall bedämpft werden muß, um einen stabilen Transport einer Kette von Teilchenpaketen zu ermöglichen, konnte anhand zweier, in der Betriebsfrequenz unterschiedlicher Konzepte für normalleitende Linearbeschleuniger zukünftiger Kollider gezeigt werden. Dabei wurde deutlich, daß man bei ausschließlicher Anwendung von in Bezug auf die HEM11-pi-Mode stark bedämpften Beschleunigerstrukturen zur Kontrolle des cumulativen BBU bei einer hohen Betriebsfrequenz, z.B. im X-Band (11.45 GHz), sehr unbequem niedrige Gütewerte von ca. Q=5 erreichen muß. Das ist, wie sich im praktischen Teil der vorliegenden Arbeit gezeigt hat, vom technischen Aufwand her gesehen sehr schwierig. Für einen X-Band-Kollider wird man also eine Kombination von Maßnahmen zur Kontrolle des cumulativen BBU’s bevorzugen, z.B. neben dem Bedämpfen auch das sogenannte “Detunen” der Beschleunigersektionen. Bei einem Linearbeschleuniger im S-Band (Betriebsfrequenz bei 3 GHz) befindet man sich von vornherein bei ausschließlicher Verwendung gedämpfter Strukturen in bequemeren Gütebereichen Q ungefähr gleich 20-50, was ohne weiteres praktikabel ist. Aber auch hier kann man durch Zusatzmaßnahmen die Anforderungen an die Resonatordämpfung weiter reduzieren. Als erste Methode zur Bestimmung der Güte eines störmodenbedämpften Beschleunigerresonators wurde die Chipman-Methode angewendet. Meßobjekt war hier das dreizellige Modell einer Irisstruktur mit Halbzellenabschluß. Zur Auskopplung der dominanten Störmode, der sogenannten HEM11-Mode, war die mittlere Irisblende einseitig geschlitzt. Bei diesem Modell lag die Frequenz der als Beschleunigermode vorgesehenen TM010-2pi/3-Mode etwa bei 2.35 GHz und die Frequenz der dominanten Störmode, der HEM11-pi-Mode, lag bei etwa 2.81 GHz. Die mittlere geschlitzte Irisblende war austauschbar, so daß eine Messung der durch das Dämpfungssystem belasteten Güte QL bzw. des Koppelfaktors K in Abhängigkeit von der Schlitzhöhe möglich war. Die Messungen ließen sich bei diesem Koppelsystem ohne Schwierigkeiten durchrühren, bei der größten möglichen Schlitzhöhe von 10 mm wurde auch der größte Koppelfaktor mit 46 gemessen. Bei einer vom Dämpfungssystem unbelasteten Güte von Q0=4500 korrespondiert ein Koppelfaktor von K=46 mit einer durch das Dämpfungssystem belasteten Güte von QL = 100. Ein Mangel wurde bei der Anwendung der Chipman-Methode sofort sichtbar: Durch die Anregung der HEM11-pi-Mode von der Meßleitung aus sind im Koppelsystem offenbar Störmoden angeregt worden. Liegen diese Störmoden nahe bei der zu messenden Resonanz, dann ist eine präzise Bestimmung des Koppelfaktors unmöglich. Glücklicherweise war das hier nicht der Fall. Die Messungen mit der einseitig geschlitzten Irisblende haben gezeigt, daß dieses Dämpfungssystem Anwendung finden könnte bei Beschleunigerstrukturen im S-Band. wie sie z.B beim DESY/THD-Kollider vorgeschlagen wurden. Natürlich kann bei den hier erreichten Koppelfaktoren nicht die Dämpfung der schädlichen HEM11-pi- Mode die alleinige Maßnahme sein, die einseitig geschlitzte Irisblende könnte nur zusammen mit dem Detunen angewendet werden. Da die einseitig geschlitzte Irisblende auch eine Feldasymmetrie bei der Beschleunigermode erzeugt, müssen die Dämpfer entlang einer Beschleunigersektion alternierend angebracht werden, d.h. jeder Dämpfer ist im Bezug zum nächsten Nachbardämpfer um 90° gedreht. Die 90° ergeben sich aus der Notwendigkeit, auch die Dämpfung der zweit en Polarisationsebene der HEM11-pi-Mode zu gewährleisten. Als zweite, der Chipman-Methode sehr ähnliche Methode, wurde die Kurzschlußschiebermethode angewendet. Erstes Untersuchungsobjekt war die bei der Chipman- Methode bereits erwähnte dreizeilige Irisstruktur. Ein Vorteil im Vergleich zur Chipman-Methode ist vor allem die schnelle Durchführbarkeit der Messung bei wenig experimentellem Aufwand, wenn auch die Kurzschlußschiebermethode weniger präzise ist, und man auf einige Informationen, wie z.B. der Verlauf des Reflexionsfaktors und dessen Phase, verzichten muß. Im Vergleich mit der Chipman-Methode waren die mit der Kurzschlußschiebermethode gemessenen Koppelfaktoren immer um etwa 10-15% höher. Das liegt vor allem daran, daß die Theorie zur Kurzschlußschiebermethode von einem verlustfreien Resonator-Hohlleitersystem ausgeht, so daß die nach dieser Theorie ermitteten Koppelfaktoren prinzipiell zu groß sind. Auch bei dieser Methode hat sich gezeigt, daß eine Auswertung der Meßergebnisse scheitern muß, falls ein Modenüberlapp auftritt. Bei Experimenten mit komplizierteren Dämpfungssystemen, bestehend aus mehr als vier Hohlleitern an Resonatoren mit mehr als zwei Zellen ist deutlich geworden, daß eine Bestimmung des Koppelfaktors über die Kurzschlußschiebermethode durch die entstehende Modenvielfalt praktisch unmöglich ist. Es stellte sich heraus, daß bei der Auswertung der Meßergebnisse dadurch ein Fehler entsteht, wenigstens bei sehr starker Dämpfung, daß man die Feldverteilung als konstant animmt, denn bei dem Vergleich der unbelasteten Güte Q0 mit der vom Dämpfungssystem belasteten Güte QL geht man davon aus, daß die Feldverteilungen im ungedämpften- und gedämpften Fall identisch sind. Das kann bei Koppelfaktoren im Bereich von einigen zehn bis zu einigen hundert nicht mehr zutreffen, da das Feld der Mode immer stärker in das Dämpfungssystem eindringt, je stärker die Kopplung ist. Das ändert die Modengeometrie natürlich in dramatischer Weise und die belastete Güte QL kann dann nicht mehr einfach über die Gleichung QL=Q0/(1+ K) aus den gemessenen Größen Q, und K ausgerechnet werden, da der Koppelfaktor K nun nicht mehr konstant sein kann, sondern im Gegenteil sich sehr stark ändert, je nachdem an welcher Stelle die Felder gemessen werden. Ein weiterer Mangel bei beiden Methoden ist, daß über diese Methoden weder die longitudinale noch die transversale Shuntimpedanz bestimmt werden kann. Ein Ausweg aus diesem Dilemma war die Anwendung zweier neuer Meßmethoden, die Antennenmethode und die nichtresonante Störkörpermethode. Diese beiden Methoden beruhen im Gegensatz zu den ersten beiden Methoden auf einer direkten Bestimmung der Feldpegel bzw. der transversalen Shuntimpedanz im bedämpften Resonator was den Vorteil hat, daß im Resonator genau das Feld bzw. die Shuntimpedanz vermessen wird, welches die Teilchen bei der Durchquerung des Resonators auch tatsächlich sehen. Die Antennenmethode war eine komplette Neuentwicklung, während es sich bei der nichtresonante Störkörpermethode um die Anwendung einer seit 1966 bekannten, jedoch in Vergessenheit geratenen Theorie handelte. Beide Meßmethoden konnten am Beispiel eines im Bezug auf die TM110-Mode (Frequenz bei ca. 3.2 GHz) sehr stark bedämpften Zylinderresonators (Die Frequenz der TM010-Mode lag bei ca. 2.049 GHz) erfolgreich getestet werden. Die durch das Dämpfungssystem belastete Güte QL war hier ca. 10. Bei der Bestimmung der longitudinalen elektrischen Feldstärken bzw. der longitudinalen Shuntimpedanz der TM110-Mode in Abhängigkeit vom axialen Abstand vor und nach der Bedämpfung konnten zunächst folgende Feststellungen gemacht werden: 1) Die Modengeometrie im ungedämpften- und gedämpften Fall unterscheiden sich sehr stark voneinander. Dadurch mißt man verschiedene Koppelfaktoren, je nachdem an welcher Stelle man die Felder mißt. 2) der maximal gemessene Koppelfaktor liefert über die Gleichung QL=Q0/(1+K) die richtige beklastete Güte QL. 3) Der höchste Koppelfaktor wurde bei der Feldmessung in einem Achsortabstand vom halben Radius des Zylinderresonators gemessen. Da die beiden Meßmethoden das Verhältnis der elektrischen Feldstärkequadrate in Abhängigkeit vom Meßort vor und nach der Bedämpfung liefern, konnte die zweite Feststellung nur durch eine Kontrollmessung mit Hilfe der Kurzschlußschiebermethode, die hier dank des einfachen Aufbaus leicht durchfiihrbar war, gemacht werden. Die Kurzschlußschiebermessung lieferte eine Güte QL ungefähr gleich 9, während der höchste bzw. der niedrigste mit den beiden neuen Megmethoden ermittelte Koppelfaktor mit einer Güte von QL ungefähr gleich 11 bzw. mit einer Güte von QL ungefähr gleich 14 korrespondierte, d.h. also. daß der höchste gemessene Koppelfaktor für dieses Dämpfungssystem die richtige Resonatorgüte liefert. Anhand eines zweizeiligen Resonators (Die Frequenz der TM010-2pi/3-Beschleunigermode lag bei ca. 2.35 GHz) mit beidseitig geschlitzter Irisblende als Dämpfungssystem für die HEM11-pi-Mode (ca. 3.5 GHz) konnte gezeigt werden, daß die zweite Feststellung eine Gesetzmäßigkeit bei spiegelsymmetrischen Dämpfungssystemen ist. Im Unterschied zum Zylinderresonator wurde der höchste mit der richtigen bedämpften Güte QL ungefähr gleich 37 korrespondierend Koppelfaktor K ungefähr gleich 153 jedoch direkt auf der Resonatorachse gemessen. Die bedämpfte Güte wurde auch hier wieder mit Hilfe der Kurzschlußschiebermethode kontrolliert. Ein sehr interessantes Verhalten zeigte der gleiche zweizeilige Resonator mit einseitig geschlitzter Irisblende als Dämpfungssystem. Hier korrespondierte der in der Nähe der Resonatorwand gemessene niedrigste Koppelfaktor mit der bedämpften Güte QL ungefähr gleich 230 des Resonators. In Achsennähe hingegen war der Koppelfaktor etwa dreimal höher, K ungefähr gleich 82, als aus der der Güteerniedrigung K ungefähr gleich 35 nach der Dämpfung hervorgegangen wäre, die transversale Shuntimpedanz ist also auch etwa um den Faktor 3 erniedrigt. Durch dieses Verhalten ist der einseitig bedämpfte Resonator für die Verwendung bei einem linearen Kollider im S-Band (hier muß nicht so stark bedämpft werden) interessant geworden, denn wenn nur wenige Zellen einer Beschleunigersektion mit einem Dämpfungssystem ausgerüstet werden müssen, ist es wichtig in diesen Zellen ein effektives Dämpfungssystem bei Gewährleistung eines einwandfreien Transports der Feldenergie der HEM11-pi-Mode in diese gedämpften zu haben. Das funktioniert einerseits nur, wenn sich die Resonanzfrequenz der gedämpften Zellen in Bezug auf die HEM11-pi-Mode auf die Resonanzfrequenz der benachbarten ungedämpften Zellen einstellen läßt und andererseits die mit einer Dämpfung einhergehende schlechtere Anregungsfähigkeit dieser Störmode in den gedämpften Zellen nicht zu schlecht ist. Bei einer zu starken Dämpfung wäre beides nicht möglich. Zusammenfassend kann man sagen, daß durch die Antennen- und die nichtresonante Störkörpermethode ein für die Entwicklung von störmodenbedämpften Beschleunigerresonatoren für zukünftige lineare Kollider und natürlich auch anderer Elektronenbeschleuniger sehr wirksames Instrument zur Verfügung steht. Ein detailliertes Design eines für einen bestimmten Beschleuniger passenden Dämpfungssystems ist mit Hilfe dieser Meßmethoden möglich geworden, da kleine Unterschiede zwischen verschiedenen Ausführungen von Dämpfungssystemen meßbar sind. Durch die bei der Anwendung der Meßmethoden auf unterschiedliche bedämpfte Resonatoren gefundenen Gesetzmäßigkeiten ist unter anderem auch die Frage geklärt worden, auf welche Weise ein Dämpfungssystem auch auf numerischem Wege mit Hilfe von Computerprogrammen wie z.B. MAFIA berechnet werden kann.
Untersuchungen zu mikrowellenfokussierenden Beschleunigerstrukturen für zukünftige lineare Collider
(1993)
Zur Erforschung immer kleinerer Strukturen der Materie benötigt die Elementarteilchenphysik Teilchenstrahlen höchster Energie. Gegenwärtig sind das Higgs-Boson und das Top-Quarks‘ die Objekte des größten physikalischen Interesses. Das sog. “Top” ist das sechste und bisher noch nicht nachgewiesene Mitglied der Quark-Familie. Seine Masse wird unterhalb von etwa 180GeV vermutet. Das Higgs-Boson spielt im sog. Standardmodell der Elementarteilchen eine wichtige Rolle. Seine Masse wird ebenfalls im Bereich zwischen 100 und 200GeV vermutet. Es gibt eine gute Chance, das Top am Protonen- Antiprotonen-Beschleuniger TEVATRON des Fermilab in Chicago nachzuweisen. Seine physikalischen Eigenschaften lassen sich aber erst an zukünfligen Beschleunigem mit höherer Energie bestimmen. Gegenwärtig werden daher mehrere verschiedene Beschleunigerkonzepte erwogen oder sind bereits in Planung bzw. im Bau. Das Spektrum reicht dabei von Protonen-Antiprotonen- bis zu Elektronen-Positronen-Maschinen. Ein vielversprechender Ansatz zur Erzeugung der benötigten Teilchenenergien ist der lineare Elektronen-Positronen-Collider, im folgenden immer als linearer Collider bezeichnet. Das Verhältnis von Meßsignal zu Hintergrund ist bei e+-e-Kollisionen besser als bei Protonen-Kollisionen. Es entstehen keine Partonen, wodurch die zur Verfugung stehende Energie effektiver genutzt werden kann [ 11. Weiterhin ist der lineare Collider im Vergleich zu einer zirkularen Maschine gleicher Endenergie und Luminosität auf lange Sicht kostengünstiger, da keine zusätzliche Hf-Leistung zur Kompensation von Synchrotronstrahlungsverlusten nötig ist. Die für die Experimente erforderliche hohe Luminosität bedingt Teilchenstrahlen von niedrigster Emittanz und geringster Energieverschmierung sowohl innerhalb eines einzelnen Teilchenpaketes als auch zwischen den Bunchen selbst [2]. Zur Erhaltung der Strahlqualität über die volle Lange des Beschleunigers ist es deshalb notwendig, ein akkurates Strahlführungssystem zu entwickeln, das es gestattet, auftretenden Strahlinstabilitäten wirksam zu begegnen. Grund der Instabilitäten sind elektromagnetische Felder, sogenannte Wake- oder Kielwellenfelder, die die Teilchen bei der Durchquerung des Beschleunigers selbst anfachen. Die Teilchenpakete werden dadurch radial von der Achse abgelenkt, sie werden verformt und erfahren eine Impulsverschmierung. Transversale Einzelbunch-Instabilitäten (SBBU, Single Bunch Beam Breakup) kann man durch die Einführung einer Energieverschmierung innerhalb eines Teilchenpakets bekämpfen; in Verbindung mit einer äußeren Strahlführung erreicht man eine Bedämpfung der Instabilität [3]. Als Alternative oder Ergänzung zu äußeren Fokussierungsmaßnahmen erscheint es deshalb interessant, inwieweit man durch geeignete Modifikationen an den Beschleunigerstrukturen die Hochfrequenzfelder selbst zur Erzeugung der benötigten Fokussierung heranziehen kann. Da es sehr schwierig ist, die für das Experiment geforderte Luminosität mit einem einzelnen Bunch zu erzeugen, muß man mehrere Teilchenpakete in kurzem Abstand durch den Beschleuniger schicken. Jetzt erfährt aber jeder Bunch die aufsummierten Wakefelder der ihm vorausfliegenden Teilchenpakete. Um zu verhindern, daß die transversale Strahlablage inakzeptabel groß wird, müssen Maßnahmen zur Kontrolle dieser Vielteilchen-Instabilitäten (MBBU, Multibunch Beam Breakup) getroffen werden. Das bedeutet, die Güten dieser als Long-Range-Wakes bezeichneten Störmoden müssen, je nach Collider, durch konstruktive Maßnahmen auf Werte in der Größenordnung von zehn abgesenkt werden. Die vorliegende Arbeit befaßt sich mit theoretischen Anwendungsmöglichkeiten von hochfrequenzfokussierenden Beschleunigerstrukturen in linearen Collidem bei Einzel- und Multibunch-Betrieb. In Kap. 2 wird eine kurze Einführung in die Problematik von Höchstenergiebeschleunigem gegeben. Anschließend werden in Kap. 3 Irisstrukturen und ihre Kenngrößen behandelt. Kap. 4 gibt eine Einführung in das Wakefeld-Konzept. Es wird untersucht, welche Resonatormoden für den Strahl gefährlich sind; die Wakepotentiale werden mit Resonatorkenngrößen in Verbindung gebracht. In Kap. 5 schließt sich eine Betrachtung zum SBBU an. Es wird untersucht, inwieweit Irisstrukturen und Rechteckblendenstrukturen (MWQ-Strukturen) zur direkten Hochfrequenzfokussierung eingesetzt werden können. Die Eigenschaften einer MWQ-Struktur werden vermessen und mit theoretischen Vorhersagen verglichen. Beispiele fiir hypothetische Collider in verschiedenen Frequenzbereichen werden diskutiert. Im anschließenden Kap. 6 wird der Mechanismus des MBBU erläutert und Möglichkeiten zur Bedämpfung insbesondere von MWQ-Strukturen im Multibunch-Betrieb untersucht. Meßergebnisse an Modellstrukturen werden vorgestellt und am Beispiel von einem S- und X-Band- Collider diskutiert.
In dieser Studie wurden die Veränderungen der Fibrinolyse während der Geburt bei insgesamt 84 Gebärenden untersucht. Gemessen wurden die Konzentrationen des Plasminogen-Aktivator-Inhibitors, alpha-2-Antiplasmins und Plasminogens mit Hilfe von photometrischen Tests mit chromogenem Substrat kurz vor Geburt, direkt nach Geburt des Kindes, 30 und 90 Minuten nach Lösung der Plazenta bei 41 Spontangebärenden und 43 Sectiopatientinnen. 30 Frauen erhielten kurz vor der Geburt eine Kurzinfusion von einer Millionen KIE Aprotinin (Trasylol®), darunter 15 Spontangebärende und 15 Sectiopatientinnen. Sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen ohne Gabe von Aprotinin war ein offensichtlicher Abfall der PAI-Konzentrationen nach Geburt zu beobachten, die Konzentrationen für alpha-2-Antiplasmin und Plasminogen blieben im gemessenen Zeitraum unverändert. Nach Gabe von Aprotinin dagegen stieg die PAI-Aktivität sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen nach Geburt leicht an und fiel dann - im Vergleich zu den Patientinnen ohne Verabreichung von Aprotinin - langsamer und schwächer ab. alpha-2-Antiplasmin stieg bei den mit Aprotinin behandelten Patientinnen nach Geburt an und fiel dann wieder bis auf den Ausgangswert ab, die Plasminogenkonzentrationen blieben im gemessenen Zeitraum weitgehend unverändert. Signifikante Unterschiede zwischen Spontangebärenden und Sectiopatientinnen gab es für alle drei Parameter nicht. Die Veränderungen der Faktoren sprechen für eine erhöhte fibrinolytische Aktivität nach Geburt, die als Reaktion auf die gesteigerte Gerinnung zum gleichen Zeitpunkt zu werten ist. Die Verminderung des Plasminogen-Aktivator-Inhibitors versteht sich als reaktiver Verbrauch durch die bei gesteigerter Gerinnung und folgender Fibrinolyse einsetzende "Anti-Fibrinolyse" durch die entsprechenden Hemmfaktoren. Die Veränderungen des PAI und des alpha-2-Antiplasmin unter Aprotinin sind am ehesten als geringere Beanspruchung des fibrinolytischen Systems zu interpretieren. Abschließend läßt sich aus den Beobachtungen ableiten, daß sich der durch die Plazentalösung ausgelöste Verbrauch von Gerinnungs- und Fibrinolysefaktoren durch die Gabe von Aprotinin reduzieren läßt, ein gerade bei intrapartalen Gerinnungsstörungen erwünschter Effekt.
In dieser Arbeit werden die mathematischen Grundlagen zur Konstruktion der primären Felder der minimalen Modelle der konformen Quantenfeldtheorie beschrieben. Wir untersuchen Verma und Fock-Moduln der Virasoro-Algebra und klassifizieren diese Moduln bezüglich der Struktur der (ko-) singulären Vektoren. Wir definieren die Vertex-Operatoren zwischen gewissen Fock-Moduln (die eine kanonische Hilbertraumstruktur besitzen) und beweisen verschiedene Eigenschaften dieser Operatoren: Unter bestimmten Voraussetzungen sind Vertex-Operatoren dicht definierte, nicht abschließbare Operatoren zwischen den Fock-Moduln. Radialgeordnete Produkte von Vertex-Operatoren existieren auf einem dichten Teilraum. Wir beweisen Kommutatorrelationen zwischen Vertex-Operatoren und den Generatoren der Virasoro-Algebra. Dann definieren wir die integrierten Vertex-Operatoren und zeigen, daß diese Operatoren im wesentlichen wieder die Eigenschaften der nichtintegrierten Vertex-Operatoren haben. Gewisse integrierte Vertex-Operatoren können mit konformen Felder identifiziert werden. Ein unter den Vertex-Operatoren invarianter Unterraum der Fock-Moduln kann mit dem physikalischen Zustandsraum identifiziert werden.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Wir verallgemeinern die Reduktionstheorie von Gitterbasen für beliebige Normen. Dabei zeigen wir neue Eigenschaften reduzierter Basen für die verallgemeinerten Reduktionsbegriffe. Wir verallgemeinern den Gauß-Algorithmus zur Reduktion zweidimensionaler Gitterbasen für alle Normen und erhalten eine universelle scharfe obere Schranke für die Zahl seiner Iterationen. Wir entwickeln für spezielle lp-Normen eine Variante des Gauß-Algorithmus mit niedriger Bit-Komplexität. Hierzu wird Schönhages schneller Reduktionsalgorithmus für quadratische Formen auf die Reduktion von Gitterbasen im klassischen zentrierten Fall übertragen.
Wir haben in dieser Arbeit einige Probleme auf Objekten betrachtet, deren Struktur wohlgeformten Klammerworten entspricht. Dies waren spezielle Routing-Probleme, das Umformen und Auswerten algebraischer Ausdrücke, sowie die Berechnung korrespondierender Symbole zweier Ausdrücke. Eine effiziente Lösung dieser Probleme gelang durch einen rekursiven Divide-and-Conquer Ansatz, der auf Grund der “natürlichen” rekursiven Definition der betrachteten Objekte auch nahe liegt. Im Divide-Schritt wurde das jeweilige Problem in viele wesentlich kleinere Teilprobleme zerlegt, so daß die gesamte Laufzeit des Algorithmus asymptotisch gleich der des Divide-Schrittes und des Conquer-Schrittes blieb. Das Zerlegen der Probleme erfolgte im wesentlichen unter Anwendung bekannter Routing-Algorithmen für monotone Routings und Bit-Permute-Complement Permutationen. Im Conquer-Schritt für das Klammerrouting und das Knotenkorrespondenzproblem wurden nur die Datenbewegungen des Divide-Schrittes rückwärts ausgeführt. Für das Tree-Contraction-Problem wurde dagegen im Conquer-Schritt die Hauptarbeit geleistet. Die Methode der Simulation eines PRAMAlgorithmus durch die Berechnung seiner Kommunikationsstruktur und eine entsprechende Umordnung der Datenelemente konnte sowohl für eine effiziente Implementierung des Tree-Contraction Conquer-Schrittes auf dem Hyperwürfel als auch für die Konstruktion eines einfachen NC1-Schaltkreises zum Auswerten Boolescher Formeln angewandt werden. In einer Implementierung eines Divide-and-Conquer Algorithmus auf einem Netzwerk müssen den generierten Teilproblemen für ihre weitere Bearbeitung Teile des Netzwerks zugeordnet werden. Um die weiteren Divide-Schritte nach der gleichen Methode ausführen zu können, sollte die Struktur dieser Teilnetzwerke analog zu der des gesamten Netzwerks sein. Wir haben das Teilnetzwerk-Zuweisungsproblem für den Hyperwürfel und einige hyperwürfelartige Netzwerke untersucht. Der Hyperwürfel und das Butterfly-Netzwerk können so in Teilnetzwerke vorgegebener Größen aufgeteilt werden, daß nur ein geringer Anteil der Prozessoren ungenutzt bleibt, und die Teilprobleme können schnell in die ihnen zugeordneten Teilnetzwerke gesendet werden. Unter Anwendung dieser Teilnetzwerk-Zuweisungs-Algorithmen haben wir optimale Implementierungen für eine große Klasse von Divide-and-Conquer Algorithmen auf dem Hyperwüfel und hyperwürfelartigen Netzwerken erhalten. Wir konnten garantieren, daß die Laufzeit der gesamten Implementierung des Divide-and-Conquer Algorithmus asymptotisch gleich der Laufzeit ist, die sich aus dem gegebenen Divide-Schritt und Conquer-Schritt ergibt, wenn man alle mit der Teilnetzwerk-Zuweisung verbundenen Probleme außer acht läßt. Wir haben die hier vorgestellte allgemeine Divide-and-Conquer Implementierung im optimalen Teilwürfel-Zuweisungs-Algorithmus, im Klammerrouting-Algorithmus, der selbst ein wesentlicher Teil des Tree-Contraction-Algorithmus ist, und im Algorithmus für das Knotenkorrespondenzproblem eingesetzt.
In dieser Arbeit wurde im Rahmen einer großen prospektiven, internationalen, multizentrischen, doppelblinden und randomisierten Studie an einer Subgruppe von 44 Patienten mit elektiver Hüftgelenkersatzoperation die Plättchenadhäsivität an silikonisiertem Glas untersucht. Ziel der Gesamtstudie war es, die Effiezienz von drei unterschiedlichen Hirudin-Dosen im Vergleich zu der üblichen Behandlung mit unfraktioniertem Heparin in der antithrombotischen Wirkung zu prüfen. 12 Patienten erhielten 2 x 10 mg, 10 Patienten 2 x 15 mg, 11 Patienten 2 x 20mg Hirudin und 11 Patienten 3 x 5000 IE unfraktioniertes Heparin. Bei allen Patienten wurde am 10. postoperativen Tag eine Phlebographie vorgenommen. Bei 6 Patienten stellte man phlebografisch eine Beinvenenthrombose ohne klinische Symptome fest. Der Plättchenadhäsivitätindex stieg unspezifisch in allen Gruppen am 1.postoperativen Tag an und fiel am 3./4. postoperativen Tag wieder mehr oder weniger gleich stark ab. Präoperativ sowie am 1. und 3./4. postoperativen Tag wurden zusätzlich folgende Parameter bestimmt: aPTT, Heptest, Fibrinogen und F VIII assoziertes Antigen. APTT stieg in beiden Gruppen an. Fibrinogen und F VIII stiegen postoperativ deutlich an. Da aber dieser Anstieg sowohl bei der Thrombosegruppe als auch bei der Nicht-Thrombosegruppe auftrat, hatten auch diese Werte keinen prädiktiven Wert. Der Heptest stieg minimal in beiden Gruppen. Dieser Test ist auch verwendbar zur Überwachung einer Behandlung mit Thrombinhemmern.
Thema dieser geistesgeschichtlichen Arbeit ist der knapp zehn Jahre alte, die wissenschaftslichen Fachgrenzen weit überschreitende und bis in die Tagespolitik hineinreichende Historikerstreit. Der Autor stellt diese Kontroverse in ein weites Bezugsfeld von früheren, ähnlichen Kontroversen und geschichtswissenschaftlichen Fallstudien der frühen Bundesrepublik. Eine leitende These lautet: Im Historikerstreit Mitte der achtziger Jahre sei es nicht nur um die Fragen der Einordnung des Nationalsozialismus gegangen, sondern im Kern um ein kollektives politisches Bewusstsein, um die Inhalte und Notwendigkeit einer nationalen Identität der Deutschen wurde die eigentliche Kontroverse in Westdeutschland geführt." Gerd R. Ueberschär
Einige Vogelarten verstecken im Herbst Samen, um die Samenverstecke im darauffolgenden Winter wieder auszubeuten. In der vorliegenden Arbeit wurde untersucht, wie sich der Kiefernhäher (Nucifraga columbiana), der Eichelhäher (Garrulus glandarius) und die Sumpfmeise (Parus palustris) beim Schaffen und Ausbeuten ihrer Wintervorräte orientieren. Bei den beiden Häherarten sollte herausgefunden werden, ob der Sonnenkompaß eine Rolle bei der Orientierung spielt, wie schon bei dem Buschblauhäher (WILTSCHKO & BALDA 1989) gezeigt werden konnte. Bei den Sumpfmeisen wurde zum einen untersucht, ob eine experimentelle Veränderung des Erdmagnetfeldes eine Rolle bei der Orientierung spielt. Weiterhin wurde untersucht, ob eine Veränderung der Position von zwei starken Scheinwerfern eine Rolle bei der Orientierung der Meisen spielt. Die Versuche mit Kiefernhähern wurden in Flagstaff (Arizona), die mit Eichelhähern und Sumpfmeisen in Frankfurt am Main durchgeführt. Die Versuche mit Kiefernhähern und Eichelhähern fanden in gleichartigen Volieren unter der natürlichen Sonne statt. Die Vögel durchliefen eine Serie von klassischen Zeitumstellungsversuchen. Die Kiefernhäher wurden darüber hinaus unter verschiedenen Licht- und Schattenverhältnissen getestet. Die Sumpfmeisen wurden in einem Versuchskäfig in einer Holzhütte unter Kunstlichtbedingungen getestet. In einer Versuchsserie wurde die Horizontalkomponete des den Versuchskäfig umgebenden Erdmagnetfeldes um 120° gedreht. In einer weiteren Versuchsserie wurde mit zwei Halogenscheinwerfern gearbeitet, deren Position während der Versuche verändert wurde. Es konnte gezeigt werden, daß sowohl beim Kiefernhäher als auch beim Eichelhäher die Sonne eine entscheidende Rolle bei der Orientierung beim Samenverstecken und der Samensuche spielt. Bei beiden Corvidenarten ist die Sonne hier in einem redundanten, multifaktoriellen System eingebunden wie es auch schon für Zugvögel und Brieftauben nachgewiesen werden konnte. Es gibt Anzeichen dafür, daß Kiefernhäher, die den Tageslauf der Sonne länger nicht mehr mitverfolgen konnten, den Sonnenkompaß erst wieder erlernen müssen. Es konnte gezeigt werden, daß die Genauigkeit, mit der die Kiefernhäher ihre versteckten Samen finden, in mehreren, aufeinander folgenden Versuchen abnimmt. Kiefernhäher besitzen ein komplizierteres Orientierungssystem als der in der Vorstudie (WILTSCHKO & BALDA 1989) untersuchte Buschblauhäher, da sie auch ökologisch mehr auf die versteckten Samen angewiesen sind, als die Buschblauhäher. Desweiteren konnte gezeigt werden, daß Eichelhäher in der Lage sind, die Position von Orten, die ihnen in einer Trainigsphase antrainiert wurde, auch nach einer versuchsfreien Phase von drei Monaten fehlerfrei wiederzufinden. Bei Sumpfmeisen konnte gezeigt werden, daß sie in der Lage sind, sich nichtvisuell zu orientieren. Ob das Erdmagnetfeld hierbei eine Rolle spielt, konnte weder bestätigt noch ausgeschlossen werden. Es konnte gezeigt werden, daß die Position der Halogenscheinwerfer bei der Orientierung der Sumpfmeisen während der Samensuche eine Rolle spielt. Es gelang in dieser Arbeit, die Hypothese zu bestätigen, daß Vögel Kompaßmechanismen nicht nur zur Orientierung während des Vogelzuges oder dem Rückflug zum Nest sondern auch in ihrem unmittelbaren Umgebungsbereich benutzen.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
Das Thema dieser Arbeit ist die Dienstvermittlung in offenen verteilten Systemen und die Rolle, die ein Typsystem dabei einnimmt. Ein Typsystem besteht aus einer Typbeschreibungssprache und der Definition einer Typkonformität. Die Typbeschreibungssprache erlaubt die Spezifiation von Typen, wohingegen mit der Typkonformität während eines Vermittlungsvorgangs überprüft wird, ob Angebot und Nachfrage zusammenpassen. In dieser Arbeit wurde zunächst nachgewiesen, daß es sinnvoll ist, bei einem Typ zwischen seiner Intension und seiner Extension zu unterscheiden. Die Intension eines Typs ist die Gesamtheit aller Beschreibungen, die auf diesen zutreffen. Die Extension eines Typs repräsentiert dagegen eine konkrete Beschreibung (d.h. Spezifikation eines Dienstangebots). Eine Interpretation ordnet jeder Extension eine Intension zu. Um in einem offenen verteilten System Dienste vermitteln zu können, müssen sich Dienstnutzer und {anbieter auf die Extensionen aller Typen einigen. Einem Typ kommt hierdurch die Rolle eine Standards zu, der allen beteiligten Parteien a priori bekannt sein muß. Daraus resultiert eine injektive Interpretation, die jeder Intension genau eine Extension zuordnet. Die eindeutig bestimmte Extension einer Intension fungiert als systemweiter Standard. Ein Typ als Standard steht im Widerspruch zu der Vielfalt und Dynamik eines offenen Dienstmarktes. Der Standardisierungsprozeß von Extensionen, der einem Vermittlungsvorgang vorausgehen muß, hemmt gerade die Dynamik des Systems. Die Konsequenz daraus ist, daß neben den Diensten auch die Diensttypen Gegenstand der Vermittlung sein müssen. Diese Schlußfolgerung ist bisher noch nicht formuliert worden. Es wäre somit wünscheswert, nicht{injektive Interpretationen zuzulassen, so daß eine Intension mehrere Extensionen besitzen kann, die unterschiedliche Sichten der Dienstnutzer und {anbieter repräsentieren. Die Analyse einiger bestehender Typsysteme zeigte, daß mit diesen eine nicht-injektive Interpretation nicht realisierbar ist. Im Hauptteil dieser Arbeit wurden zwei neue Typsysteme vorgestellt, die diese Eigenschaft unterstützen. Das deklarative Typsystem erweitert die Schnittstellenbeschreibungssprache eines syntaktischen Typsystems, indem semantische Spezifiationen zugelassen werden. Die deklarative Semantik dient dabei als Grundlage für die Beschreibung der Semantik einer Typspezifikation. Die Extension entspricht einem definiten Programm bestehend aus einer endlichen Menge von Horn-Klauseln. Die Intension eines Typs korrespondiert mit dem kleinsten Herbrand-Modell des definiten Programms, welches die semantische Spezifikation des Typs darstellt. Die Forderung nach der Möglichkeit nicht{injektiver Interpretationen ergibt sich aus den Eigenschaften der deklarativen Semantik, wonach verschiedene definite Programme ein identisches kleinstes Herbrand-Modell besitzen können. Das zweite in dieser Arbeit vorgestellte Typsystem entspringt einem wissensbasierten Ansatz. Grundlage bildet eine Wissensrepräsentationstechnik, die anwenderbezogene semantische Spezifikationen erlaubt. Ein Konzeptgraph als wissensbasierte Typspezifikation vereinigt in sich unterschiedliche Beschreibungen eines Typs. Ein Konzeptgraph, der selbst eine Extension darstellt, repräsentiert somit die Vereinigung mehrerer Extensionen eines Typs. Die Intension ist jedoch durch einen Konzeptgraph nicht eindeutig bestimmt. Dieser stellt lediglich eine Approximation dar. Hier liegt ein fundamentaler Unterschied in den beiden Typsystemen. Während eine Extension im deklarativen Typsystem auch immer eindeutig eine Intension charakterisiert, ist dies bei dem wissensbasierten Typsystem nicht der Fall. Die Konsequenz daraus ist, daß dieser Umstand bei einem Vermittlungsvorgang berücksichtigt werden muß. Ein wissensbasierter Vermittler muß über ein spezielles Vermittlungsprotokoll die Verfeinerung einer wissensbasierten Typspezifikation erlauben, die zu einer besseren Approximation der Intension führt. Das deklarative Typsystem besitzt aufgrund der Unentscheidbarkeit der deklarativen Typkonformität keine praktische Relevanz. Es zeigt jedoch, wie mit Hilfe der deklarativen Semantik der Open World Assumption genüge geleistet werden kann. Im Vergleich dazu kann das wissensbasierte Typsystem als "Fuzzyfizierung" des deklarativen Typsystems angesehen werden. Die wissensbasierte Typbeschreibungssprache ermöglicht im Sinne der Fuzzy Logik unscharfe Spezifikationen, die im Laufe der Zeit verfeinert werden. Ein Vorteil des wissensbasierten Ansatzes ist die Möglichkeit von anwenderbezogenen Typspezifikationen. Ein anderer Vorteil besteht darin, daß eine wissensbasierte Typbeschreibungssprache eine Meta-Sprache repräsentiert, in der Spezifikationen aus anderen Domänen dargestellt werden können. Ungeachtet dieser Vorteile bleibt jedoch der Beweis offen, daß die wissensbasierte Dienstvermittlung tatsächlich eine geeignete Methodik für die Vermittlung von Typen darstellt.
Wir behandeln Kettenbruchentwicklungen in beliebiger Dimension. Wir geben einen Kettenbruchalgorithmus an, der für beliebige Dimension n simultane diophantische Approximationen berechnet, die bis auf den Faktor 2 exp (n+2)/4 optimal sind. Für einen reellen Eingabevektor x := (x1,...,X n-1, 1) berechnet der Algorithmus eine Folge ganzzahliger Vektoren ....., so daß für i =1, ...., n-1 : | q exp (k) xi -pi exp (k)| <= 2 exp (n+2)/4 sqrt (1 + xi exp 2) / q exp (1/n-1). Nach Sätzen von Dirichlet und Borel ist die Schranke optimal in dem Sinne, als daß der Exponent 1/(n-1) im allgemeinen nicht erhöht werden kann. Der Algorithmus konstruiert eine Folge von Gitterbasen des Zn, welche die Gerade x R approximieren. Für gegebenes E > 0 findet der Algorithmus entweder eine Relation zu x, das heißt einen ganzzahligen zu x orthogonalen Vektor (ungleich Null), mit euklidischer Länge kleiner oder gleich E exp -1, oder er schließt Relationen zu x mit euklidischer Länge kleiner als E exp -1 aus. Der Algorithmus führt in der Dimension n und |log E| polynomial viele arithmetische Operationen auf rellen Zahlen in exakter Arithmetik aus. Für rationale Eingaben x := (p1, ....., pn)/pn, E>0 mit p1,.....,pn Teil von Z besitzt der Algorithmus polynomiale Bitkomplexität in O........ Eine Variante dieses Algorithmus konstruiert für Eingabevektoren x einen (von x nicht notwendigerweise verschiedenen) Nahebeipunkt x' zu x und eine kurze Relation zu x'. Im Falle x<>x können wir die Existenz von Relationen kleiner als (2E)exp -1 für Punkte in einer kleinen offenen Umgebung um x' ausschließen. Wir erhalten in diesem Sinne eine stetige untere Schranke für die Länge der kürzesten Relation zu Punkten in dieser Umgebung. Die für x' berechnete Relation ist bis auf einen in der Dimension n exponentiellen Faktor kürzeste Relation für x'. Zur Implementierung des Kettenbruchalgorithmus stellen wir ein numerisch stabiles Verfahren vor und berichten über experimentelle Ergebnisse. Wir geben untere Schranken für die Approximierbarkeit kürzester Relationen in der Maximum-Norm und minimaler diophantischer Approximationen an: Unter der Annahme, daß die Klasse NP nicht in der deterministischen Zeitklasse O(n exp poly log n) enthalten ist, zeigen wir: Es existiert kein Algorithmus, der für rationale Eingabevektoren x polynomial in der Bitlänge bin(x) von x ist und die in der Maximum-Norm kürzeste Relation bis auf einen Faktor 2 exp (log 0.5 - zeta bin(x)) approximiert. Dabei ist zeta eine beliebig kleine positive Konstante. Wir übertragen dieses Resultat auf das Problem, zu gegebenen rationalen Zahlen x1,....,xn-1 und einem rationalen E > 0 gute simultane diophantische Approximationen zu finden, das heißt rationale Zahlen p1/q,...; (p n-1/)q mit möglichst kleinem Hauptnenner q zu konstruieren, so daß max 1 <=i <= n-1 |q xi - pi| <= E. Wir zeigen unter obiger Annahme, daß kein Algorithmus existiert, der für gegebene rationale Zahlen x1,........,x n-1 und natürlicher Zahl N polynomial-Zeit in der Bitlänge bin(x) von x ist und simultane diophantische Approximationen berechnet, so daß max 1 <=i <= n-1 |q xi - pi| für q gehört zu [1, N] bis auf den Faktor 2 exp (log 0.5 - zeta bin(x)) minimal ist. Hierbei ist zeta wieder eine beliebig kleine positive Konstante.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Die Erhaltung des Muskeltonus, der die Grundlage für die aufrechte Körperstellung und die Feinabstimmung von Bewegungsabläufen bildet, erfordert ein Gleichgewicht der inhibitorischen und exzitatorischen Impulse, die in den neuronalen Regelkreisen des Rückenmarks verarbeitet werden. Im Rückenmark und Stammhirn von Wirbeltieren wird die synaptische Inhibition vom Strychnin-sensitiven Glyzinrezeptor (GlyR) vermittelt. Dieser liganden-gesteuerte Ionenkanal ist ein pentamerer Proteinkomplex aus drei a- und zwei ßUntereinheiten, der durch ein peripheres Membranprotein, das Gephyrin, in der neuronalen Membran verankert ist. Für die ligandenbindende a-Untereinheit konnten eine Vielzahl von Varianten isoliert werden, die für die Bildung verschiedener GlyR-Isoformen verantwortlich sind. Mutationen, die die Gene für die GlyR-Untereinheiten betreffen, sind stets mit chronischen Bewegungsstömngen assoziiert. So sind Punktmutationen im Gen für die GlyR al-Untereinheit für die Hyperekplexie (Startle Disease) verantwortlich, eine humane Erbkrankheit, die durch ausgeprägte Schreckreaktionen und episodische Muskelsteifheit charakterisiert ist. Die spontanen Mausmutanten spastic (spa), spasmodic (spd) und oscillator (ot), die vergleichbare Bewegungsstömngen manifestieren, tragen ebenfalls Mutationen in den Genen für die GlyR-Untereinheiten. Bei der Mausmutante spa führt eine Transposoninsertion, die im Gen für die GlyR ß-Untereinheit lokalisiert ist, zu einer Störung der GlyR ßExpression. Bei den Mausmutanten spd und ot wurden, wie bei Hyperekplexiepatienten, Mutationen im Gen für die a 1-Untereinheit identifiziert. Diese Mutation führt bei der spasmodischen Maus zu veränderten Rezeptoreigenschaften und bei oscillator zum völligen Verlust der al-Untereinheit. Die Analogie der murinen und humanen Erbkrankheiten ermöglicht die Verwendung der Mausmutanten bei der Entwicklung von in vivo Tiermodellen, die zur Erforschung der molekularen Grundlagen der Glyzinrezeptorfunktion und zur Untersuchung von GlyR-Defekten des Menschen geeignet sind. Für die Entwicklung solcher Tiermodelle wurde in der vorliegenden Arbeit versucht, die hereditären Bewegungsstörungen der Mausmutanten spa, spd und ot durch therapeutischen Gentransfer zu komplementieren. Hierbei sollten die in den Mausmutanten defekten Rezeptorstmkturgene durch solche fremder Spezies ersetzt werden.
Für die genetische Rettung der spastischen Mausmutante wurden transgene Mäuse entwickelt, die die ß-Untereinheit der Ratte in ihrem Nervensystem überexprirnieren. Durch Einbringen der Transgenallele in den genetischen Hintergrund der spastischen Maus konnte deren Menge an funktionellen GlyR ß-Transkripten vergrößert werden. Hierdurch konnte eine Zunahme an funktionellen GlyR-Molekülen erreicht und die Manifestierung ihres mutanten Phänotyps verhindert werden. Dies liefe11e zum einen den formalen Beweis für den Zusammenhang von identifiziertem Gendefekt und mutantem Phänotyp und zeigte, daß GlyR-Untereinheiten über Speziesbarrieren hinweg wirksam sind. Zum anderen wurde deutlich, daß das Erscheinen der adulten GlyR-Isoform (GlyRA) an der Membranoberfläche in vivo direkt von der Verfügbarkeit funktioneller ß-Untereinheiten abhängig ist. Darüber hinaus konnte zum ersten Mal gezeigt werden, daß die normale Funktion des glyzinergen Systems bereits dann gewährleistet ist, wenn nur 25% an funktionsfähigen ß-Transkripten gebildet werden bzw. wenn nur ca. die Hälfte der im Wildtyp vorhandenen GlyRA-Moleküle die neuronale Membranoberfläche erreichen.
Zur genetischen Rettung der Mausmutanten spasmodic und oscillator wurden, in analogen Versuchsansätzen, transgene Mauslinien etabliert, die die GlyR al-Untereinheit des Menschen in ihrem Nervensystem überexprimieren. Nach Einbringen der Transgenallele in den genetischen Hintergrund der ot Maus konnte deren Phänotyp partiell komplementiert werden. Eine vollständige Rettung dieser Mausmutante bzw. eine Komplementation des spasmodischen Phänotyps konnte, vermutlich aufgrund zu niedriger Transgenexpressionsrate, nicht erreicht werden. Dennoch zeigte das Ergebnis, daß die humane al-Untereinheit in der Maus Funktion übernehmen kann, eine Grundvoraussetzung für die Entwicklung von Mausmodellen, die zur Untersuchung des Pathomechanismus mutierter GlyR-Untereinheiten des Menschen geeignet sind.
Zweites Ziel der vorliegenden Arbeit war die Entwicklung von transgenen Mäusen, die die rekombinante GlyR-Untereinheit "Chl" in ihrem Nervensystem exprimieren, für die in vitro gezeigt wurde, daß sie eine dominant negative Wirkung auf die GlyR-Aktivität entfaltet. Durch den Einsatz dieser Untereinheit sollte die GlyR-Aktivität in vivo gezielt reduziert werden und damit der Pathomechanismus der al-Untereinheit in Hyperekplexiepatienten, die ebenfalls als dominant negative GlyR-Untereinheit wirkt, simuliert werden. Die molekularbiologischen Analysen der etablierten Chl-transgen Linien zeigten, daß die transgene Untereinheit, anders als erwartet, die Expression der ligandenbindende al-Untereinheit beeinflußt. Diese Erkenntnis steht im Gegensatz zu den Ergebnissen aus entsprechenden Experimenten mit in vitro Systemen und macht deutlich, daß in vitro Modelle die in vivo Situation nicht unbedingt repräsentieren müssen. Dies unterstreicht die Bedeutung von Tiermodellen bei der Untersuchung der molekularen Grundlagen der glyzinergen Nervenübertragung und bei der Erforschung von humanen Glyzinrezeptordefekten.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.