Refine
Year of publication
Document Type
- Doctoral Thesis (3599) (remove)
Language
- German (3599) (remove)
Has Fulltext
- yes (3599)
Is part of the Bibliography
- no (3599)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (9)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1369)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (215)
- Biochemie, Chemie und Pharmazie (97)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
In dieser Studie wurden die Veränderungen der Fibrinolyse während der Geburt bei insgesamt 84 Gebärenden untersucht. Gemessen wurden die Konzentrationen des Plasminogen-Aktivator-Inhibitors, alpha-2-Antiplasmins und Plasminogens mit Hilfe von photometrischen Tests mit chromogenem Substrat kurz vor Geburt, direkt nach Geburt des Kindes, 30 und 90 Minuten nach Lösung der Plazenta bei 41 Spontangebärenden und 43 Sectiopatientinnen. 30 Frauen erhielten kurz vor der Geburt eine Kurzinfusion von einer Millionen KIE Aprotinin (Trasylol®), darunter 15 Spontangebärende und 15 Sectiopatientinnen. Sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen ohne Gabe von Aprotinin war ein offensichtlicher Abfall der PAI-Konzentrationen nach Geburt zu beobachten, die Konzentrationen für alpha-2-Antiplasmin und Plasminogen blieben im gemessenen Zeitraum unverändert. Nach Gabe von Aprotinin dagegen stieg die PAI-Aktivität sowohl bei den Spontangebärenden als auch bei den Sectiopatientinnen nach Geburt leicht an und fiel dann - im Vergleich zu den Patientinnen ohne Verabreichung von Aprotinin - langsamer und schwächer ab. alpha-2-Antiplasmin stieg bei den mit Aprotinin behandelten Patientinnen nach Geburt an und fiel dann wieder bis auf den Ausgangswert ab, die Plasminogenkonzentrationen blieben im gemessenen Zeitraum weitgehend unverändert. Signifikante Unterschiede zwischen Spontangebärenden und Sectiopatientinnen gab es für alle drei Parameter nicht. Die Veränderungen der Faktoren sprechen für eine erhöhte fibrinolytische Aktivität nach Geburt, die als Reaktion auf die gesteigerte Gerinnung zum gleichen Zeitpunkt zu werten ist. Die Verminderung des Plasminogen-Aktivator-Inhibitors versteht sich als reaktiver Verbrauch durch die bei gesteigerter Gerinnung und folgender Fibrinolyse einsetzende "Anti-Fibrinolyse" durch die entsprechenden Hemmfaktoren. Die Veränderungen des PAI und des alpha-2-Antiplasmin unter Aprotinin sind am ehesten als geringere Beanspruchung des fibrinolytischen Systems zu interpretieren. Abschließend läßt sich aus den Beobachtungen ableiten, daß sich der durch die Plazentalösung ausgelöste Verbrauch von Gerinnungs- und Fibrinolysefaktoren durch die Gabe von Aprotinin reduzieren läßt, ein gerade bei intrapartalen Gerinnungsstörungen erwünschter Effekt.
In dieser Arbeit werden die mathematischen Grundlagen zur Konstruktion der primären Felder der minimalen Modelle der konformen Quantenfeldtheorie beschrieben. Wir untersuchen Verma und Fock-Moduln der Virasoro-Algebra und klassifizieren diese Moduln bezüglich der Struktur der (ko-) singulären Vektoren. Wir definieren die Vertex-Operatoren zwischen gewissen Fock-Moduln (die eine kanonische Hilbertraumstruktur besitzen) und beweisen verschiedene Eigenschaften dieser Operatoren: Unter bestimmten Voraussetzungen sind Vertex-Operatoren dicht definierte, nicht abschließbare Operatoren zwischen den Fock-Moduln. Radialgeordnete Produkte von Vertex-Operatoren existieren auf einem dichten Teilraum. Wir beweisen Kommutatorrelationen zwischen Vertex-Operatoren und den Generatoren der Virasoro-Algebra. Dann definieren wir die integrierten Vertex-Operatoren und zeigen, daß diese Operatoren im wesentlichen wieder die Eigenschaften der nichtintegrierten Vertex-Operatoren haben. Gewisse integrierte Vertex-Operatoren können mit konformen Felder identifiziert werden. Ein unter den Vertex-Operatoren invarianter Unterraum der Fock-Moduln kann mit dem physikalischen Zustandsraum identifiziert werden.
Im Rahmen dieser Arbeit wurde die katalytische Wirkung von massenselektierten Edelmetallclustern in photographischen Entwicklern an möglichst praxisnahen photographischen Modellsystemen untersucht, um die bei der Belichtung und der anschließenden Entwicklung von photographischen Filmmaterialien ablaufenden Prozesse besser verstehen zu können. Hierzu wurden präformierte und anschließend massenspektrometrisch größenselektierte Edelmetallclusterionen sanft auf photographische Emulsionskörner aufgebracht und anschließend untersucht, wie die deponierten Clusterionen die chemische Reduktion dieser gelatinefreien Silberhalogenid-Mikrokristalle im Entwickler beeinflussen. Apparatives Kernstück ist eine in den letzten drei Jahren in der Arbeitsgruppe von Prof. L. Wöste an der Freien Universität in Berlin entwickelte Anlage mit der es möglich ist, Edelmetallcluster definierter Größe in so ausreichender Menge durch Sputtern zu erzeugen, daß auch nach kurzen Depositionszeiten genügend viele Cluster auf Oberflächen deponiert werden können. Hohe Teilchenströme von Silbercluster-Kationen wurden über einen weiten Größenbereich (Ag1 + -Ag34+) erzeugt. Der Silbercluster mit der geringsten Intensität im Spektrum, das besonders interessante Ag4 +, wurde mit einem Clusterstrom von 800 pA bei guter Massenauflösung erzeugt. Für Silbercluster-Anionen erzielt man annähernd die gleichen Teichenströme wie für die entsprechenden -Kationen. Durch Sputtern von Gold-Silber-Mischtargets ließen sich AunAgm+-Clusterionen bis zu einer Masse von 2200 amu erzeugen. Um die Forderung nach einem langsamen Aufbringen der Cluster auf die Oberfläche („soft landing“) zu erfüllen, wurden die Cluster mit Hilfe von zwei mit Stoßgas gefüllten Quadrupolen abgebremst. Durch die so verwirklichte sanfte Deposition der Cluster ist es erstmals gelungen, die photographische Wirkung der auf primitive Emulsionskörner deponierten Cluster in definierter, reproduzierbarer und daher aussagekräftiger Weise zu untersuchen. Das war möglich, weil die Depositionsenergien der Cluster (< 1 eV) unterhalb der Bindungsenergien der hier deponierten Edelmetallcluster liegen und somit eine Verfälschung der Resultate durch Fragmentation der Clusterionen ausgeschlossen werden konnte. Es konnte nachgewiesen werden, daß erst ab Depositionsenergien von ³ 5 eV eine vermehrte Fragmentation der Cluster zu erwarten ist. Ob ein Silbercluster an einem Emulsionskorn dessen bevorzugte Entwickelbarkeit einleitet, hängt nicht nur von der Größe des Aggregates und seiner Ladung ab, sondern auch vom Redoxpotential des photographischen Entwicklers. Positiv geladene Silbercluster aus mindestens vier Atomen (Agn+, n³4) katalysieren den Entwicklungsprozeß der Emulsionskörner bei Redoxpotentialen, die negativer als -310 mV (Ag/AgCl-Referenzelektrode) sind. Aber auch Ag3+-Cluster führen noch zu einer Entwickelbarkeit, wenn das Redoxpotential unterhalb -350 mV liegt. Im Gegensatz zu Ag3+-Clustern können Ag3--Cluster, ebenso wie Ag4+-Cluster, die Entwicklung bereits bei einem Redoxpotential von -310 mV katalysieren. Kleinere Silberaggregate, ob positiv oder negativ geladen, führen nicht zu einer bevorzugten Entwickelbarkeit der mit ihnen belegten Silberhalogenidkörner. Ein Einfluß der Kornmorphologie (Kuben, Oktaeder, T-grains) auf die kritische Clustergröße konnte nicht nachgewiesen werden. Erstmals war es auch möglich, Gold-Silber-Mischclusterionen auf ihre photographische Wirkung hin zu untersuchen. Dabei zeigte sich, daß die katalytische Wirkung von Gold-Silber-Mischclusterionen auf die Entwickelbarkeit der sie enthaltenden Emulsionskörner allein durch den Silberanteil der Cluster bestimmt wird. Mischcluster Ag1Aum+ (m³2) und Ag2Aum+ (m³1) katalysieren die Entwicklung nicht, unabhängig vom Redoxpotential. Dagegen leiten Ag3Aum + (m³2), entsprechend den Agn+-Clustern (n³4) bei Redoxpotentialen negativer als -310 mV die Entwicklung ein. Mischcluster mit höherem Silberanteil (AgnAum+; n³4, m³1) ändern ihre katalytische Wirkung gegenüber reinen Silberclustern entsprechender Größe nicht. Erstmals konnte auch der Begriff „Goldlatensifikation“ präzisiert werden. Die hier gefundnen Ergebnisse zeigen eindeutig, daß von einer solchen nur dann gesprochen werden kann, wenn sich die Goldatome an das Trimer anlagern. Dagegen kann die alleinige Substitution von Silber durch Gold sowohl als empfindlichkeitssteigernder Mechanismus bei der Goldlatensifikation als auch bei der Goldreifung ausgeschlossen werden. Reine Goldcluster-Kationen bis zum Au7 + zeigen keine katalytische Wirkung.
Wir verallgemeinern die Reduktionstheorie von Gitterbasen für beliebige Normen. Dabei zeigen wir neue Eigenschaften reduzierter Basen für die verallgemeinerten Reduktionsbegriffe. Wir verallgemeinern den Gauß-Algorithmus zur Reduktion zweidimensionaler Gitterbasen für alle Normen und erhalten eine universelle scharfe obere Schranke für die Zahl seiner Iterationen. Wir entwickeln für spezielle lp-Normen eine Variante des Gauß-Algorithmus mit niedriger Bit-Komplexität. Hierzu wird Schönhages schneller Reduktionsalgorithmus für quadratische Formen auf die Reduktion von Gitterbasen im klassischen zentrierten Fall übertragen.
Wir haben in dieser Arbeit einige Probleme auf Objekten betrachtet, deren Struktur wohlgeformten Klammerworten entspricht. Dies waren spezielle Routing-Probleme, das Umformen und Auswerten algebraischer Ausdrücke, sowie die Berechnung korrespondierender Symbole zweier Ausdrücke. Eine effiziente Lösung dieser Probleme gelang durch einen rekursiven Divide-and-Conquer Ansatz, der auf Grund der “natürlichen” rekursiven Definition der betrachteten Objekte auch nahe liegt. Im Divide-Schritt wurde das jeweilige Problem in viele wesentlich kleinere Teilprobleme zerlegt, so daß die gesamte Laufzeit des Algorithmus asymptotisch gleich der des Divide-Schrittes und des Conquer-Schrittes blieb. Das Zerlegen der Probleme erfolgte im wesentlichen unter Anwendung bekannter Routing-Algorithmen für monotone Routings und Bit-Permute-Complement Permutationen. Im Conquer-Schritt für das Klammerrouting und das Knotenkorrespondenzproblem wurden nur die Datenbewegungen des Divide-Schrittes rückwärts ausgeführt. Für das Tree-Contraction-Problem wurde dagegen im Conquer-Schritt die Hauptarbeit geleistet. Die Methode der Simulation eines PRAMAlgorithmus durch die Berechnung seiner Kommunikationsstruktur und eine entsprechende Umordnung der Datenelemente konnte sowohl für eine effiziente Implementierung des Tree-Contraction Conquer-Schrittes auf dem Hyperwürfel als auch für die Konstruktion eines einfachen NC1-Schaltkreises zum Auswerten Boolescher Formeln angewandt werden. In einer Implementierung eines Divide-and-Conquer Algorithmus auf einem Netzwerk müssen den generierten Teilproblemen für ihre weitere Bearbeitung Teile des Netzwerks zugeordnet werden. Um die weiteren Divide-Schritte nach der gleichen Methode ausführen zu können, sollte die Struktur dieser Teilnetzwerke analog zu der des gesamten Netzwerks sein. Wir haben das Teilnetzwerk-Zuweisungsproblem für den Hyperwürfel und einige hyperwürfelartige Netzwerke untersucht. Der Hyperwürfel und das Butterfly-Netzwerk können so in Teilnetzwerke vorgegebener Größen aufgeteilt werden, daß nur ein geringer Anteil der Prozessoren ungenutzt bleibt, und die Teilprobleme können schnell in die ihnen zugeordneten Teilnetzwerke gesendet werden. Unter Anwendung dieser Teilnetzwerk-Zuweisungs-Algorithmen haben wir optimale Implementierungen für eine große Klasse von Divide-and-Conquer Algorithmen auf dem Hyperwüfel und hyperwürfelartigen Netzwerken erhalten. Wir konnten garantieren, daß die Laufzeit der gesamten Implementierung des Divide-and-Conquer Algorithmus asymptotisch gleich der Laufzeit ist, die sich aus dem gegebenen Divide-Schritt und Conquer-Schritt ergibt, wenn man alle mit der Teilnetzwerk-Zuweisung verbundenen Probleme außer acht läßt. Wir haben die hier vorgestellte allgemeine Divide-and-Conquer Implementierung im optimalen Teilwürfel-Zuweisungs-Algorithmus, im Klammerrouting-Algorithmus, der selbst ein wesentlicher Teil des Tree-Contraction-Algorithmus ist, und im Algorithmus für das Knotenkorrespondenzproblem eingesetzt.
In dieser Arbeit wurde im Rahmen einer großen prospektiven, internationalen, multizentrischen, doppelblinden und randomisierten Studie an einer Subgruppe von 44 Patienten mit elektiver Hüftgelenkersatzoperation die Plättchenadhäsivität an silikonisiertem Glas untersucht. Ziel der Gesamtstudie war es, die Effiezienz von drei unterschiedlichen Hirudin-Dosen im Vergleich zu der üblichen Behandlung mit unfraktioniertem Heparin in der antithrombotischen Wirkung zu prüfen. 12 Patienten erhielten 2 x 10 mg, 10 Patienten 2 x 15 mg, 11 Patienten 2 x 20mg Hirudin und 11 Patienten 3 x 5000 IE unfraktioniertes Heparin. Bei allen Patienten wurde am 10. postoperativen Tag eine Phlebographie vorgenommen. Bei 6 Patienten stellte man phlebografisch eine Beinvenenthrombose ohne klinische Symptome fest. Der Plättchenadhäsivitätindex stieg unspezifisch in allen Gruppen am 1.postoperativen Tag an und fiel am 3./4. postoperativen Tag wieder mehr oder weniger gleich stark ab. Präoperativ sowie am 1. und 3./4. postoperativen Tag wurden zusätzlich folgende Parameter bestimmt: aPTT, Heptest, Fibrinogen und F VIII assoziertes Antigen. APTT stieg in beiden Gruppen an. Fibrinogen und F VIII stiegen postoperativ deutlich an. Da aber dieser Anstieg sowohl bei der Thrombosegruppe als auch bei der Nicht-Thrombosegruppe auftrat, hatten auch diese Werte keinen prädiktiven Wert. Der Heptest stieg minimal in beiden Gruppen. Dieser Test ist auch verwendbar zur Überwachung einer Behandlung mit Thrombinhemmern.
Thema dieser geistesgeschichtlichen Arbeit ist der knapp zehn Jahre alte, die wissenschaftslichen Fachgrenzen weit überschreitende und bis in die Tagespolitik hineinreichende Historikerstreit. Der Autor stellt diese Kontroverse in ein weites Bezugsfeld von früheren, ähnlichen Kontroversen und geschichtswissenschaftlichen Fallstudien der frühen Bundesrepublik. Eine leitende These lautet: Im Historikerstreit Mitte der achtziger Jahre sei es nicht nur um die Fragen der Einordnung des Nationalsozialismus gegangen, sondern im Kern um ein kollektives politisches Bewusstsein, um die Inhalte und Notwendigkeit einer nationalen Identität der Deutschen wurde die eigentliche Kontroverse in Westdeutschland geführt." Gerd R. Ueberschär
Einige Vogelarten verstecken im Herbst Samen, um die Samenverstecke im darauffolgenden Winter wieder auszubeuten. In der vorliegenden Arbeit wurde untersucht, wie sich der Kiefernhäher (Nucifraga columbiana), der Eichelhäher (Garrulus glandarius) und die Sumpfmeise (Parus palustris) beim Schaffen und Ausbeuten ihrer Wintervorräte orientieren. Bei den beiden Häherarten sollte herausgefunden werden, ob der Sonnenkompaß eine Rolle bei der Orientierung spielt, wie schon bei dem Buschblauhäher (WILTSCHKO & BALDA 1989) gezeigt werden konnte. Bei den Sumpfmeisen wurde zum einen untersucht, ob eine experimentelle Veränderung des Erdmagnetfeldes eine Rolle bei der Orientierung spielt. Weiterhin wurde untersucht, ob eine Veränderung der Position von zwei starken Scheinwerfern eine Rolle bei der Orientierung der Meisen spielt. Die Versuche mit Kiefernhähern wurden in Flagstaff (Arizona), die mit Eichelhähern und Sumpfmeisen in Frankfurt am Main durchgeführt. Die Versuche mit Kiefernhähern und Eichelhähern fanden in gleichartigen Volieren unter der natürlichen Sonne statt. Die Vögel durchliefen eine Serie von klassischen Zeitumstellungsversuchen. Die Kiefernhäher wurden darüber hinaus unter verschiedenen Licht- und Schattenverhältnissen getestet. Die Sumpfmeisen wurden in einem Versuchskäfig in einer Holzhütte unter Kunstlichtbedingungen getestet. In einer Versuchsserie wurde die Horizontalkomponete des den Versuchskäfig umgebenden Erdmagnetfeldes um 120° gedreht. In einer weiteren Versuchsserie wurde mit zwei Halogenscheinwerfern gearbeitet, deren Position während der Versuche verändert wurde. Es konnte gezeigt werden, daß sowohl beim Kiefernhäher als auch beim Eichelhäher die Sonne eine entscheidende Rolle bei der Orientierung beim Samenverstecken und der Samensuche spielt. Bei beiden Corvidenarten ist die Sonne hier in einem redundanten, multifaktoriellen System eingebunden wie es auch schon für Zugvögel und Brieftauben nachgewiesen werden konnte. Es gibt Anzeichen dafür, daß Kiefernhäher, die den Tageslauf der Sonne länger nicht mehr mitverfolgen konnten, den Sonnenkompaß erst wieder erlernen müssen. Es konnte gezeigt werden, daß die Genauigkeit, mit der die Kiefernhäher ihre versteckten Samen finden, in mehreren, aufeinander folgenden Versuchen abnimmt. Kiefernhäher besitzen ein komplizierteres Orientierungssystem als der in der Vorstudie (WILTSCHKO & BALDA 1989) untersuchte Buschblauhäher, da sie auch ökologisch mehr auf die versteckten Samen angewiesen sind, als die Buschblauhäher. Desweiteren konnte gezeigt werden, daß Eichelhäher in der Lage sind, die Position von Orten, die ihnen in einer Trainigsphase antrainiert wurde, auch nach einer versuchsfreien Phase von drei Monaten fehlerfrei wiederzufinden. Bei Sumpfmeisen konnte gezeigt werden, daß sie in der Lage sind, sich nichtvisuell zu orientieren. Ob das Erdmagnetfeld hierbei eine Rolle spielt, konnte weder bestätigt noch ausgeschlossen werden. Es konnte gezeigt werden, daß die Position der Halogenscheinwerfer bei der Orientierung der Sumpfmeisen während der Samensuche eine Rolle spielt. Es gelang in dieser Arbeit, die Hypothese zu bestätigen, daß Vögel Kompaßmechanismen nicht nur zur Orientierung während des Vogelzuges oder dem Rückflug zum Nest sondern auch in ihrem unmittelbaren Umgebungsbereich benutzen.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die nach dem Verfall des Moskauer Imperiums innerhalb der nordatlantischen Allianz entstandene Diskussion über eine eigenständigere europäische Sicherheitspolitik ist nicht neu. Ist diese Diskussion heute jedoch eingebunden in eine generelle Debatte über die künftigen sicherheitspolitischen Strukturen und einer stärkeren organisatorischen Verflechtung beispielsweise von Vereinten Nationen, Europäischer Union, OSZE und NATO, so stand in den späten fünfziger und frühen sechziger Jahren vor allem die Frage einer verstärkten politischen Konsultation und Kooperation innerhalb des Bündnisses und damit verbunden die Teilhabe der (kontinental-)europäischen Mitglieder der Atlantischen Allianz am nuklearen Entscheidungsprozeß auf der Tagesordnung. Dahinter stand die zwiespältige europäische Besorgnis, die USA könnten sich entweder mit Moskau einigen und ihre Streitkräfte in Europa reduzieren oder ganz abziehen, oder aber sie würden bleiben und die europäischen Staaten dominieren. Für beide Fälle wollten die Europäer, unter ihnen in vorderster Linie Bundeskanzler Konrad Adenauer und - als Sonderfall - Charles de Gaulle, Vorsorge treffen, wobei die nukleare Partizipation als Königsweg zu Macht und Einfluß in der Allianz galt. Die amerikanische Regierung hingegen war stets an einer stärkeren Teilung der Verteidigungslasten interessiert, ohne aber ihren Einfluß aufgeben oder von den Verbündeten zu abhängig werden zu wollen. Zur Vertrauensbildung und engeren Anbindung war Washington hierbei auch zu Zugeständnissen in der Teilhabe an der nuklearen Verfügungsgewalt bereit, womit jedoch möglichst neue nationale Nuklearstreitmächte vermieden werden sollten. ...
HADES : ein Dielektronenspekrometer hoher Akzeptanz für relativistische Schwerionenkollisionen
(1995)
Das Dielektronenspektrometer HADES (High Acceptance Dielectron Spectrometer) wird gegenwärtig am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) aufgebaut. Die Spektroskopie von Elektron-Positron-Paaren (Dielektronen) aus Kern-Kern-Kollisonen mit Projektilenergien von 1 bis 2 GeV/Nukleon verspricht einen Einblick in die Eigenschaften von Hadronen bei Dichten, die das Dreifache von normaler Kerndichte erreichen. Es wird erwartet, daß sich die Massenverteilung der unterhalb der Schwelle erzeugten leichten Vektormesonen rho. omega und phi anhand ihres Zerfalls in Dielektronen experimentell untersuchen läßt. Die Beobachtung von Massenänderungen kann Hinweise auf die Restauration der im Vakuum gebrochenen chiralen Symmetrie geben. Die Eigenschaften des Spektrometers wurden in der vorliegenden Arbeit mit Simulationsrechnungen (GEANT) untersucht und optimiert. Zur Leptonenidentifizierung dient ein ortsempfindlicher Cerenkov-Zähler (RICH1) mit Gasradiator, azimutal symmetrischem Spiegel und V-Photonendetektor. Durch die geometrische Anordnung des RICH und mit sechs supraleitenden Spulen in toroidaler Anordung erreicht HADES eine Polarwinkelakzeptanz von 18 bis 85 Grad. Die Feldverteilung ist der kinematischen Impulsverteilung angepaßt und garantiert Feldfreiheit im RICH. Je ein Paar Minidriftkammern vor und hinter dem Magnetfeldbereich messen die Trajektorie zur anschließenden Rekonstruktion von Impuls, Winkel und Vertex. Zuletzt passieren die Teilchen META, eine Detektorkombination von Szintillatoren und Schauerdetektor. Aus der Multiplizität geladener Teilchen in den Szintillatoren werden zentrale Kollisionen für den Trigger der ersten Stufe selektiert. Den Trigger der zweiten Stufe definieren zwei erkannte Ringe im RICH, die jeweils einem Elektronensignal in META zuzuordnen sind. HADES ist ein Experiment der zweiten Generation. Die Messungen mit dem Dileptonenspektrometer DLS am BEVALAC (Berkeley, USA) ergaben nur für leichte Stoßsysteme e+e- -Spektren guter Statistik. HADES besitzt mit 35% die hundertfache geometrische e+e- - Akzeptanz des DLS. Darüber hinaus können mit einer Massenauflösung von weniger als 1% (DLS 12%) die e+e- -Beiträge von omega- und rho-Meson getrennt werden. Es ist für die Anforderungen von Au+Au-Kollisionen bei hohen Kollisionsraten von 106 pro Sekunde konzipiert. Bei einer Anzahl von bis zu 170 Protonen und 20 geladenen Pionen sowie mehr als 0.1 e+e- -Paaren durch den pi 0-Zerfall werden pro zentralerKollision etwa 10 exp 6 Dielektronen aus dem rho- oder omega-Zerfall erwartet. Leptonen, die aus dem Zerfall verschiedener pi 0-Mesonen stammen, bilden kombinatorische e+e- -Paare, die auch im e+e- -Massenbereich der Vektormesonen beitragen können. Durch Rekonstruktion und durch Methoden der Untergrunderkennung wird der e+e- -Untergrund um nahezu zwei Größenordnungen unterdrückt, während die Effizienz für echte Dielektronen etwa 55% beträgt. Die Leptonen des verbleibenden Untergrunds stammen zu mehr als 50% aus dem pi-0-Dalitz-Zerfall und zu etwa 40% aus externer Paarkonversion von ..-Quanten des Zerfalls pi 0.. , wobei Konversionsprozesse im Radiatorgas und im Target zu gleichen Teilen beitragen. pi 0-Dalitz-Zerfall überwiegt im kombinatorischen Massenspektrum bis 500 MeV/c2 ; oberhalb von 500 MeV/c2 dominiert externe Paarkonversion.
Das Thema dieser Arbeit ist die Dienstvermittlung in offenen verteilten Systemen und die Rolle, die ein Typsystem dabei einnimmt. Ein Typsystem besteht aus einer Typbeschreibungssprache und der Definition einer Typkonformität. Die Typbeschreibungssprache erlaubt die Spezifiation von Typen, wohingegen mit der Typkonformität während eines Vermittlungsvorgangs überprüft wird, ob Angebot und Nachfrage zusammenpassen. In dieser Arbeit wurde zunächst nachgewiesen, daß es sinnvoll ist, bei einem Typ zwischen seiner Intension und seiner Extension zu unterscheiden. Die Intension eines Typs ist die Gesamtheit aller Beschreibungen, die auf diesen zutreffen. Die Extension eines Typs repräsentiert dagegen eine konkrete Beschreibung (d.h. Spezifikation eines Dienstangebots). Eine Interpretation ordnet jeder Extension eine Intension zu. Um in einem offenen verteilten System Dienste vermitteln zu können, müssen sich Dienstnutzer und {anbieter auf die Extensionen aller Typen einigen. Einem Typ kommt hierdurch die Rolle eine Standards zu, der allen beteiligten Parteien a priori bekannt sein muß. Daraus resultiert eine injektive Interpretation, die jeder Intension genau eine Extension zuordnet. Die eindeutig bestimmte Extension einer Intension fungiert als systemweiter Standard. Ein Typ als Standard steht im Widerspruch zu der Vielfalt und Dynamik eines offenen Dienstmarktes. Der Standardisierungsprozeß von Extensionen, der einem Vermittlungsvorgang vorausgehen muß, hemmt gerade die Dynamik des Systems. Die Konsequenz daraus ist, daß neben den Diensten auch die Diensttypen Gegenstand der Vermittlung sein müssen. Diese Schlußfolgerung ist bisher noch nicht formuliert worden. Es wäre somit wünscheswert, nicht{injektive Interpretationen zuzulassen, so daß eine Intension mehrere Extensionen besitzen kann, die unterschiedliche Sichten der Dienstnutzer und {anbieter repräsentieren. Die Analyse einiger bestehender Typsysteme zeigte, daß mit diesen eine nicht-injektive Interpretation nicht realisierbar ist. Im Hauptteil dieser Arbeit wurden zwei neue Typsysteme vorgestellt, die diese Eigenschaft unterstützen. Das deklarative Typsystem erweitert die Schnittstellenbeschreibungssprache eines syntaktischen Typsystems, indem semantische Spezifiationen zugelassen werden. Die deklarative Semantik dient dabei als Grundlage für die Beschreibung der Semantik einer Typspezifikation. Die Extension entspricht einem definiten Programm bestehend aus einer endlichen Menge von Horn-Klauseln. Die Intension eines Typs korrespondiert mit dem kleinsten Herbrand-Modell des definiten Programms, welches die semantische Spezifikation des Typs darstellt. Die Forderung nach der Möglichkeit nicht{injektiver Interpretationen ergibt sich aus den Eigenschaften der deklarativen Semantik, wonach verschiedene definite Programme ein identisches kleinstes Herbrand-Modell besitzen können. Das zweite in dieser Arbeit vorgestellte Typsystem entspringt einem wissensbasierten Ansatz. Grundlage bildet eine Wissensrepräsentationstechnik, die anwenderbezogene semantische Spezifikationen erlaubt. Ein Konzeptgraph als wissensbasierte Typspezifikation vereinigt in sich unterschiedliche Beschreibungen eines Typs. Ein Konzeptgraph, der selbst eine Extension darstellt, repräsentiert somit die Vereinigung mehrerer Extensionen eines Typs. Die Intension ist jedoch durch einen Konzeptgraph nicht eindeutig bestimmt. Dieser stellt lediglich eine Approximation dar. Hier liegt ein fundamentaler Unterschied in den beiden Typsystemen. Während eine Extension im deklarativen Typsystem auch immer eindeutig eine Intension charakterisiert, ist dies bei dem wissensbasierten Typsystem nicht der Fall. Die Konsequenz daraus ist, daß dieser Umstand bei einem Vermittlungsvorgang berücksichtigt werden muß. Ein wissensbasierter Vermittler muß über ein spezielles Vermittlungsprotokoll die Verfeinerung einer wissensbasierten Typspezifikation erlauben, die zu einer besseren Approximation der Intension führt. Das deklarative Typsystem besitzt aufgrund der Unentscheidbarkeit der deklarativen Typkonformität keine praktische Relevanz. Es zeigt jedoch, wie mit Hilfe der deklarativen Semantik der Open World Assumption genüge geleistet werden kann. Im Vergleich dazu kann das wissensbasierte Typsystem als "Fuzzyfizierung" des deklarativen Typsystems angesehen werden. Die wissensbasierte Typbeschreibungssprache ermöglicht im Sinne der Fuzzy Logik unscharfe Spezifikationen, die im Laufe der Zeit verfeinert werden. Ein Vorteil des wissensbasierten Ansatzes ist die Möglichkeit von anwenderbezogenen Typspezifikationen. Ein anderer Vorteil besteht darin, daß eine wissensbasierte Typbeschreibungssprache eine Meta-Sprache repräsentiert, in der Spezifikationen aus anderen Domänen dargestellt werden können. Ungeachtet dieser Vorteile bleibt jedoch der Beweis offen, daß die wissensbasierte Dienstvermittlung tatsächlich eine geeignete Methodik für die Vermittlung von Typen darstellt.
Wir behandeln Kettenbruchentwicklungen in beliebiger Dimension. Wir geben einen Kettenbruchalgorithmus an, der für beliebige Dimension n simultane diophantische Approximationen berechnet, die bis auf den Faktor 2 exp (n+2)/4 optimal sind. Für einen reellen Eingabevektor x := (x1,...,X n-1, 1) berechnet der Algorithmus eine Folge ganzzahliger Vektoren ....., so daß für i =1, ...., n-1 : | q exp (k) xi -pi exp (k)| <= 2 exp (n+2)/4 sqrt (1 + xi exp 2) / q exp (1/n-1). Nach Sätzen von Dirichlet und Borel ist die Schranke optimal in dem Sinne, als daß der Exponent 1/(n-1) im allgemeinen nicht erhöht werden kann. Der Algorithmus konstruiert eine Folge von Gitterbasen des Zn, welche die Gerade x R approximieren. Für gegebenes E > 0 findet der Algorithmus entweder eine Relation zu x, das heißt einen ganzzahligen zu x orthogonalen Vektor (ungleich Null), mit euklidischer Länge kleiner oder gleich E exp -1, oder er schließt Relationen zu x mit euklidischer Länge kleiner als E exp -1 aus. Der Algorithmus führt in der Dimension n und |log E| polynomial viele arithmetische Operationen auf rellen Zahlen in exakter Arithmetik aus. Für rationale Eingaben x := (p1, ....., pn)/pn, E>0 mit p1,.....,pn Teil von Z besitzt der Algorithmus polynomiale Bitkomplexität in O........ Eine Variante dieses Algorithmus konstruiert für Eingabevektoren x einen (von x nicht notwendigerweise verschiedenen) Nahebeipunkt x' zu x und eine kurze Relation zu x'. Im Falle x<>x können wir die Existenz von Relationen kleiner als (2E)exp -1 für Punkte in einer kleinen offenen Umgebung um x' ausschließen. Wir erhalten in diesem Sinne eine stetige untere Schranke für die Länge der kürzesten Relation zu Punkten in dieser Umgebung. Die für x' berechnete Relation ist bis auf einen in der Dimension n exponentiellen Faktor kürzeste Relation für x'. Zur Implementierung des Kettenbruchalgorithmus stellen wir ein numerisch stabiles Verfahren vor und berichten über experimentelle Ergebnisse. Wir geben untere Schranken für die Approximierbarkeit kürzester Relationen in der Maximum-Norm und minimaler diophantischer Approximationen an: Unter der Annahme, daß die Klasse NP nicht in der deterministischen Zeitklasse O(n exp poly log n) enthalten ist, zeigen wir: Es existiert kein Algorithmus, der für rationale Eingabevektoren x polynomial in der Bitlänge bin(x) von x ist und die in der Maximum-Norm kürzeste Relation bis auf einen Faktor 2 exp (log 0.5 - zeta bin(x)) approximiert. Dabei ist zeta eine beliebig kleine positive Konstante. Wir übertragen dieses Resultat auf das Problem, zu gegebenen rationalen Zahlen x1,....,xn-1 und einem rationalen E > 0 gute simultane diophantische Approximationen zu finden, das heißt rationale Zahlen p1/q,...; (p n-1/)q mit möglichst kleinem Hauptnenner q zu konstruieren, so daß max 1 <=i <= n-1 |q xi - pi| <= E. Wir zeigen unter obiger Annahme, daß kein Algorithmus existiert, der für gegebene rationale Zahlen x1,........,x n-1 und natürlicher Zahl N polynomial-Zeit in der Bitlänge bin(x) von x ist und simultane diophantische Approximationen berechnet, so daß max 1 <=i <= n-1 |q xi - pi| für q gehört zu [1, N] bis auf den Faktor 2 exp (log 0.5 - zeta bin(x)) minimal ist. Hierbei ist zeta wieder eine beliebig kleine positive Konstante.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Die Erhaltung des Muskeltonus, der die Grundlage für die aufrechte Körperstellung und die Feinabstimmung von Bewegungsabläufen bildet, erfordert ein Gleichgewicht der inhibitorischen und exzitatorischen Impulse, die in den neuronalen Regelkreisen des Rückenmarks verarbeitet werden. Im Rückenmark und Stammhirn von Wirbeltieren wird die synaptische Inhibition vom Strychnin-sensitiven Glyzinrezeptor (GlyR) vermittelt. Dieser liganden-gesteuerte Ionenkanal ist ein pentamerer Proteinkomplex aus drei a- und zwei ßUntereinheiten, der durch ein peripheres Membranprotein, das Gephyrin, in der neuronalen Membran verankert ist. Für die ligandenbindende a-Untereinheit konnten eine Vielzahl von Varianten isoliert werden, die für die Bildung verschiedener GlyR-Isoformen verantwortlich sind. Mutationen, die die Gene für die GlyR-Untereinheiten betreffen, sind stets mit chronischen Bewegungsstömngen assoziiert. So sind Punktmutationen im Gen für die GlyR al-Untereinheit für die Hyperekplexie (Startle Disease) verantwortlich, eine humane Erbkrankheit, die durch ausgeprägte Schreckreaktionen und episodische Muskelsteifheit charakterisiert ist. Die spontanen Mausmutanten spastic (spa), spasmodic (spd) und oscillator (ot), die vergleichbare Bewegungsstömngen manifestieren, tragen ebenfalls Mutationen in den Genen für die GlyR-Untereinheiten. Bei der Mausmutante spa führt eine Transposoninsertion, die im Gen für die GlyR ß-Untereinheit lokalisiert ist, zu einer Störung der GlyR ßExpression. Bei den Mausmutanten spd und ot wurden, wie bei Hyperekplexiepatienten, Mutationen im Gen für die a 1-Untereinheit identifiziert. Diese Mutation führt bei der spasmodischen Maus zu veränderten Rezeptoreigenschaften und bei oscillator zum völligen Verlust der al-Untereinheit. Die Analogie der murinen und humanen Erbkrankheiten ermöglicht die Verwendung der Mausmutanten bei der Entwicklung von in vivo Tiermodellen, die zur Erforschung der molekularen Grundlagen der Glyzinrezeptorfunktion und zur Untersuchung von GlyR-Defekten des Menschen geeignet sind. Für die Entwicklung solcher Tiermodelle wurde in der vorliegenden Arbeit versucht, die hereditären Bewegungsstörungen der Mausmutanten spa, spd und ot durch therapeutischen Gentransfer zu komplementieren. Hierbei sollten die in den Mausmutanten defekten Rezeptorstmkturgene durch solche fremder Spezies ersetzt werden.
Für die genetische Rettung der spastischen Mausmutante wurden transgene Mäuse entwickelt, die die ß-Untereinheit der Ratte in ihrem Nervensystem überexprirnieren. Durch Einbringen der Transgenallele in den genetischen Hintergrund der spastischen Maus konnte deren Menge an funktionellen GlyR ß-Transkripten vergrößert werden. Hierdurch konnte eine Zunahme an funktionellen GlyR-Molekülen erreicht und die Manifestierung ihres mutanten Phänotyps verhindert werden. Dies liefe11e zum einen den formalen Beweis für den Zusammenhang von identifiziertem Gendefekt und mutantem Phänotyp und zeigte, daß GlyR-Untereinheiten über Speziesbarrieren hinweg wirksam sind. Zum anderen wurde deutlich, daß das Erscheinen der adulten GlyR-Isoform (GlyRA) an der Membranoberfläche in vivo direkt von der Verfügbarkeit funktioneller ß-Untereinheiten abhängig ist. Darüber hinaus konnte zum ersten Mal gezeigt werden, daß die normale Funktion des glyzinergen Systems bereits dann gewährleistet ist, wenn nur 25% an funktionsfähigen ß-Transkripten gebildet werden bzw. wenn nur ca. die Hälfte der im Wildtyp vorhandenen GlyRA-Moleküle die neuronale Membranoberfläche erreichen.
Zur genetischen Rettung der Mausmutanten spasmodic und oscillator wurden, in analogen Versuchsansätzen, transgene Mauslinien etabliert, die die GlyR al-Untereinheit des Menschen in ihrem Nervensystem überexprimieren. Nach Einbringen der Transgenallele in den genetischen Hintergrund der ot Maus konnte deren Phänotyp partiell komplementiert werden. Eine vollständige Rettung dieser Mausmutante bzw. eine Komplementation des spasmodischen Phänotyps konnte, vermutlich aufgrund zu niedriger Transgenexpressionsrate, nicht erreicht werden. Dennoch zeigte das Ergebnis, daß die humane al-Untereinheit in der Maus Funktion übernehmen kann, eine Grundvoraussetzung für die Entwicklung von Mausmodellen, die zur Untersuchung des Pathomechanismus mutierter GlyR-Untereinheiten des Menschen geeignet sind.
Zweites Ziel der vorliegenden Arbeit war die Entwicklung von transgenen Mäusen, die die rekombinante GlyR-Untereinheit "Chl" in ihrem Nervensystem exprimieren, für die in vitro gezeigt wurde, daß sie eine dominant negative Wirkung auf die GlyR-Aktivität entfaltet. Durch den Einsatz dieser Untereinheit sollte die GlyR-Aktivität in vivo gezielt reduziert werden und damit der Pathomechanismus der al-Untereinheit in Hyperekplexiepatienten, die ebenfalls als dominant negative GlyR-Untereinheit wirkt, simuliert werden. Die molekularbiologischen Analysen der etablierten Chl-transgen Linien zeigten, daß die transgene Untereinheit, anders als erwartet, die Expression der ligandenbindende al-Untereinheit beeinflußt. Diese Erkenntnis steht im Gegensatz zu den Ergebnissen aus entsprechenden Experimenten mit in vitro Systemen und macht deutlich, daß in vitro Modelle die in vivo Situation nicht unbedingt repräsentieren müssen. Dies unterstreicht die Bedeutung von Tiermodellen bei der Untersuchung der molekularen Grundlagen der glyzinergen Nervenübertragung und bei der Erforschung von humanen Glyzinrezeptordefekten.
Basierend auf der Feststellung, daß selbst die aufwendigsten zur Zeit verfügbaren Klimamodelle (das sind gekoppelte atmosphärisch-ozeanische Zirkulationsmodelle, AOGCM) nicht in der Lage sind, alle bekannten externen Antriebe und internen Wechselwirkungen des Klimas simultan zu erfassen, werden zunächst die Stärken und Schwächen von rein statistischen Ansätzen zur Analyse von Zusammenhängen zwischen beobachteten Zeitreihen diskutiert. Speziell geht es dabei um die Frage, welche natürlichen und anthropogenen Antriebe in welchem Ausmaß zu den beobachteten Variationen der globalen Mitteltemperatur beigetragen haben (Signaltrennung). Es wird gezeigt, daß ein einfacher physikalisch motivierter Ansatz, der einige Schwächen der rein statistischen Ansätze vermeidet, nicht zum Ziel der Signaltrennung führt. Damit ergibt sich die Notwendigkeit, sich eingehender mit den Eigenschaften des globalen Klimasystems zu beschäftigen. So stellt sich die Frage, unter welchen Bedingungen das Klima überhaupt vorhersagbar ist. Aufgrund dieser Überlegungen erscheint es möglich, das globale Klima, repräsentiert durch die globale Mitteltemperatur, mit Hilfe von Energie-Bilanz-Modellen (EBM) zu beschreiben. Es folgt, daß ein 3-Boxen-EBM (Atmosphäre, ozeanische Mischungsschicht und tieferer Ozean) ausreicht, um den Verlauf der globalen bodennahen Mitteltemperatur zu untersuchen. Um das Problem einer Überanpassung zu vermeiden, wird das Modell am hemisphärisch gemittelten Jahresgang von Temperatur und Ausstrahlung, am Verlauf der bodennahen Mitteltemperatur eines Zirkulationsmodells im Einschaltexperiment, sowie im Vergleich zu paläoklimatologischen Daten kalibriert. Es wird eine Lösung dieses Modells abgeleitet, die als rekursiver Filter zur Zeitreihenanalyse verwendet werden kann. Um auch den hemisphärischen Temperaturverlauf untersuchen zu können, wird das 3-Boxen-Modell auf fünf Boxen erweitert (hemisphärische Atmosphären- und ozeanische Mischungsschicht-Boxen sowie ein globaler tieferer Ozean). Auch dieses Modell wird im wesentlichen an den Jahresgängen der Temperatur kalibriert und eine Lösung in Form eines rekursiven Filters abgeleitet. Von besonderer Bedeutung ist dabei, daß die so abgeleiteten Filter weder in ihrer Struktur, noch in ihren Parameterwerten aus einer Anpassung an die zu untersuchenden Zeitreihen stammen. Bevor die beobachteten Temperaturzeitreihen für den Zeitraum von 1866 bis 1994 mit den zwei Modellversionen rekonstruiert werden können, müssen die berücksichtigten externen Antriebe in Form von Heizratenanomalien vorliegen. Es werden zwei natürliche (solare Schwankungen und explosive Vulkanaktivität) und zwei anthropogene externe Antriebe (Treibhausgas- und Schwefeldioxidemissionen, die zur Bildung von anthropogenem troposphärischen Sulfat führen) untersucht. Die Heizratenanomalien der solaren Schwankungen folgen aus Satellitenmessungen und einer Extrapolation mit Hilfe von Sonnenflecken-Relativzahlen. Für den Einfluß des Vulkanismus wurde eine Parametrisierung erstellt, die sowohl die Ausbreitung von stratosphärischem Vulkanaerosol als auch dessen Einfluß auf den Strahlungshaushalt berücksichtigt. Zur Beschreibung des anthropogenen Zusatztreibhauseffekts wurde auf Ergebnisse von Strahlungs-Konvektions-Modellen (RCM) zurückgegriffen. Der Einfluß des anthropogenen troposphärischen Sulfats wurde entsprechend dem ungenauen Kenntnisstand nur grob parametrisiert. Mit den Modellen lassen sich zu jedem Antrieb Zeitreihen der globalen und hemisphärischen Temperaturanomalien berechnen. Die beobachteten ENSO-korrigierten Temperaturanomalien lassen sich (außer im Fall der Nordhemisphäre) sehr gut als Summe dieser Antriebe und Zufallsrauschen ausdrücken. Dabei hat das Zufallsrauschen mit dem Modell verträgliche Eigenschaften und kann somit als internes Klimarauschen interpretiert werden. Es ist demnach möglich, zusätzlich zur Signaltrennung zu testen, ob sich die Temperaturzeitreihen ohne die anthropogenen Antriebe signifikant anders verhalten hätten. Der Unterschied ist auf der Südhemisphäre und global mit 99 % signifikant, auf der Nordhemisphäre mit 95 %. Das bedeutet, daß der Mensch das Klima mit hoher Wahrscheinlichkeit beeinflußt. Auf der Basis von Szenarien wird außerdem der anthropogene Einfluß auf das Klima der nächsten Dekaden prognostiziert. In diesem Zusammenhang stellt sich die Frage, wie groß die Zeitverzögerung zwischen anthropogenen Antrieben und deren Wirkung auf das Klima ist. Auch dieser Frage wird nachgegangen und es ergibt sich, daß diese Verzögerung zur Zeit bei etwa zehn Jahren liegt. Da die Verzögerungszeit aber keine Eigenschaft des Klimasystems ist (wie etwa eine Trägheitsoder Mischungszeit), sondern von der zeitlichen Struktur des Antriebs abhängt, ist sie keine Konstante und kann somit nur eingeschränkt für Prognosen verwendet werden. Andererseits erlaubt die Kenntnis der Verzögerungszeit eine statistische Verifikation mit Hilfe eines multiplen Regressionsmodells. Diese unterstützt die Prognosen des EBM.
Die hier vorliegende Arbeit stellt die experimentelle Bestimmung des Verhältnisses R der totalen Wirkungsquerschnitte von Doppel- zu Einfachionisation von Helium vor. Die Ionisation wurde durch Photonen der Energie von etwa 8 keV und 58 keV induziert. In diesem Energiebereich ist die Ionisation sowohl durch die Absorption eines Photons wie auch durch die Compton-Streuung möglich. Die genutzten Photonenenergien erlaubten, den asymptotischen Hochenergiebereich beider Prozesse zu untersuchen. Mit Hilfe der verwandten Methode der Rückstoßionen-Impulsspektroskopie (hier in der neuesten Generation COLTRIMS, nach COLd Target Recoil Ion Momentum Spectroscopy) konnten Photoabsorption und Compton-Streuung erstmals experimentell voneinander getrennt werden. Sie ermöglichte ebenfalls eine gegenüber anderen Meßmethoden deutlich gesteigerte Genauigkeit der Werte R. Die Kinematik der auslaufenden Teilchen unterscheidet sich in beiden Prozessen: In der Absorption überträgt das Photon seine volle Energie auf die Targetelektronen. Deren Impuls im auslaufenden Kanal ist groß gegenüber dem des einlaufenden Photons und muß vom Ion kompensiert werden. Dagegen findet die Streuung des Photons am Elektron statt, das Ion nimmt dabei die Rolle eines Zuschauers ein. Es besitzt im auslaufenden Kanal nur einen geringen Impuls. Die so wohlseparierten Strukturen in der Rückstoßionen-Impulsverteilung erlauben die Trennung beider Prozesse durch COLTRIMS. Das Resultat zur Photoabsorption im Hochenergielimit von Rph = (1.72 ± 0.12) % konnte erstmalig die theoretischen Vorhersagen dieses Wertes verifizieren. Der Wert von Rc = (1.22 ± 0.06) % bei etwa 8.8 keV bestätigt die Rechnung von Andersson und Burgdörfer (Phys. Rev. A50, R2810 (1994)). Das Ergebnis von Rc = (0.84 +0.08-0.11) % bei 58 keV stimmt mit dem für die Compton-Streuung vorhergesagten asymptotischen Grenzwert überein.
Die im Rahmen dieser Arbeit gewonnen Meßergebnisse zeigen, daß bei geringem Restgasdruck der Einsatz einer GPL zur Fokussierung eines hochperveanten Ionenstrahles niedriger Strahlenergie Vorteile gegenüber konventionellen Linsensystemen bietet. Neben einer kostengünstigen Realisation ist wesentlich die bei unterschiedlichen Linsenparametern hohe Linearität der Linsenfelder (und die damit verbunden geringen Aberrationen) bei gleichzeitig starker Fokussierung zu nennen. Auch die geringe Baulänge, vor allem im Vergleich zu den wegen der FODO-Struktur bei Quadrupolen i. a. notwendigen Tripletts, kann gerade bei de- bzw. teilkompensiertem Transport einen Vorteil darstellen. Die im zweiten Kapitel vorgestellten Arbeiten zur theoretischen Beschreibung des nichtneutralen Plasmas der GPL haben gezeigt, daß bei Berücksichtigung der Verlustmechanismen (longitudinal und radial) die Beschreibung der Elektronenverteilung in der Linse die Meßergebnisse wesentlich besser widerspiegelt als in der klassischen Theorie Gabors, die nur einen idealisierten Zustand maximaler Elektronendichte beschreibt. Die Integration der Verluste in die Simulation ist für den longitudinalen Verlustkanal gelungen. Die radialen Verluste entziehen sich bisher aufgrund der Komplexität der Vorgänge bei der Diffusion einer hinreichend genauen Beschreibung. Dies liegt vor allem an einer sehr schwierigen Abschätzung der hierbei dominierenden Heiz- bzw. Kühlprozesse im Linsenplasma. ...
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Wir untersuchten über einen Zeitraum von 5 Jahren 40 Patienten, bei denen die Diagnose einer Achalasie nach etablierten Kriterien gesichert worden war hinsichtlich der Effektivität und der Nebenwirkungen einer pneumatischen Dilatation mit einem neuartigen "Low - Compliance" Ballonsystem. Alle Patienten wurden vor, 4 - 6 Wochen und abschließend im Mittel 28 ± 15 Monate nach der pneumatischen Dilatation untersucht. Die pneumatische Dilatation erfolgte entweder unter Verwendung eines 30 oder 35 mm Ballonsystemes, abhängig von vorher festgelegten Kriterien. Zusätzlich konnte bei 12 dieser Patienten, vor - und im Mittel 26 ± 15 Monate nach der pneumatischen Dilatation, eine ösophageale pH - Messung durchgeführt werden. Insgesamt wurden 52 Dilatationen mit einer durchschnittlichen Dilatationszeit von 4 Minuten durchgeführt. Ein initialer Erfolg nach einmaliger pneumatischer Dilatation konnte bei 35 Patienten (87,5%) erreicht werden. Die übrigen 5 Patienten sowie weitere 7 Patienten, bei denen eine Dysphagie erneut auftrat, wurden ein zweites Mal dilatiert. Die beiden Patienten, bei denen auch nach dieser zweiten Dilatation noch deutliche Symptome bestanden, wurden einer operativen Kardiomyotomie zugeführt (Operationsfrequenz = 5%). Die Effektivität der Dilatation wurde durch eine signifikante Verringerung der klinischen Symptomatik dokumentiert. So verringerte sich der Symptomen - Score (1-14 Punkte) von 9,9 ± 2,1 Punkte vor pneumatischer Dilatation, auf 4,9 ± 2,4 Punkte 4-6 Wochen nach pneumatischer Dilatation und auf 4,9 ± 2,4 Punkte bei der Abschlußuntersuchung (p< 0,01). Der Ruhedruck des unteren Ösophagussphinkters konnte durch die Dilatation von 28,3 ± 0,8 mmHg auf 16,4 ± 6,4 mmHg nach Dilatation und weiter auf 14,7 ± 5,5 mmHg bei der Abschlußuntersuchung, gesenkt werden (p< 0,01). Weder der radiologisch bestimmte Durchmesser des tubulären Ösophagus, noch die manometrisch fassbaren Kontraktionsamplituden im tubulären Ösophagus wurden durch die pneumatische Dilatation signifikant beeinflußt. Betrachtet man die Nebenwirkungen, so zeigte die Langzeit pH - Metrie eine deutliche Erhöhung der Anzahl, sowie der Dauer der gastroösophagealen Refluxepisoden, mit einem pH < 4 nach der pneumatischen Dilatation. Konträr zu diesen Ergebnissen klagte allerdings nur ein Patient über Sodbrennen. Bei einem weiteren Patienten konnte, obwohl dieser keine Beschwerden angab, endoskopisch eine Ösophagitis Grad I gesichert werden. Es wurde eine Perforation beobachtet, eine operative Versorgung des Patienten war jedoch nicht erforderlich. Diese Ergebnisse zeigen, daß die pneumatische Dilatation mit dem "Low - Compliance" System eine adäquate Behandlungsmethode der Achalasie darstellt, die sich jedoch hinsichtlich ihrer Kurz - und Langzeiteffektivität nicht wesentlich von den bisher verwendeten Systemen unterscheidet.
Die vorliegende Arbeit befaßt sich mit der Untersuchung von Photonenemissionsmustern im einzelnen Ereignis, wie sie bei einer Schwerionenkollision von Schwefel auf Gold bei einer Energie von 200 GeV pro Nukleon produziert werden. Diese Ereignisse wurden mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment am CERN aufgenommen. Die globalen Observablen einer ultrarelativistischen Schwerionenkollision, wie z.B. Multiplizitäts- und Energieverteilungen der Teilchen, lassen sich durch Rechnungen mit dem String-Modell VENUS3.11 gut beschreiben. In diesem Modell werden alle bekannten, in einer Kern-Kern-Kollision ablaufenden physikalischen Prozesse eingebaut. Ein Vergleich von Verteilungen globaler Meßgrößen aus dem Experiment mit solchen aus Modellrechnungen zeigt, welche Resultate durch schon bekannte, in dem Modell berücksichtigte, physikalische Vorgänge verursacht sind und welche auf noch unbekannten Vorgängen oder auf Detektoreffekten beruhen. Um aus solchen Vergleichen den Einfluß noch unbekannter physikalischer Prozesse auf Verteilungen zu erkennen, muß die Veränderung der physikalischen Observablen bei der Messung durch den Detektor selbst berücksichtigt werden. Die Wechselwirkung der aus der Reaktionszone emittierten Teilchen mit der im Experiment befindlichen Materie der Detektoren wird mit dem Detektorsimulationsprogramm GEANT dargestellt. Der Einfluß der Detektoren kann für globale Observablen sehr zufriedenstellend beschrieben werden, was sich in der guten Übereinstimmung der Multiplizitäts- und Rapiditätsverteilung der im WA93-Experiment nachgewiesenen Photonen mit den Verteilungen aus Modellrechnungen zeigt. Auch die Dynamik der Kollision, sichtbar in der Verteilung der transversalen Energie, wird durch das Modell wiedergegeben. Auf dem Niveau von Einzelereignissen und der Verteilung von Photonen innerhalb eines Ereignisses ist es äusserst wichtig, den Einfluß der Detektoreffekte auf die Verteilungen zu bestimmen. Bei der Untersuchung von Fluktuationen und Korrelationen auf der Basis von Einzelereignissen wurde deshalb ein Vergleich zu Mixed Events angestellt, bei denen die Detektoreffekte beibehalten, aber alle vorhandenen Korrelationen aufgelöst werden. In dieser Arbeit wurden die Photonenemissionsmuster der Einzelereignisse (eventby- event-Analyse) mit der Minimal-Spanning-Tree (MST)-Methode auf Dichtefluktuationen hin untersucht. Die emittierten Photonen geben einen Hinweis auf die Emissionsstruktur von Mesonen, insbesondere der leichten pi0-Mesonen, weil Photonen überwiegend durch den Zerfall produzierte Teilchen sind und die räumliche Verteilung ihrer Ursprungsteilchen weitgehend widerspiegeln. Die Untersuchung von Teilchendichtefluktuationen, insbesondere der durch die Kollision produzierten Mesonen, kann zum besseren Verständnis des Verhaltens der Kernmaterie bei hohen Dichten und hohen Temperaturen beitragen. Waren Dichte und Temperatur in der Reaktionszone ausreichend hoch, könnte sich ein Quark-Gluon-Plasma gebildet haben. Die bei der anschließenden Expansion und Abkühlung stattfindende Kondensation zu Hadronen könnte ein Phasenübergang erster Ordnung sein. Die Größe der Fragmente, in diesem Fall die Hadronen und alle Gruppierungen daraus, sollte eine Verteilung ergeben, die mit einer Funktion Sa angenähert werden kann, wie es von verschiedenen Autoren im Zusammenhang mit Phasenübergängen erster Ordnung beobachtet wurde. Dabei ist S die Fragmentgröße und a eine negative Konstante. Die MST-Methode ist geeignet, das Emissionsmuster einzelner Photonenereignisse aus Schwerionenreaktionen in Cluster zu unterteilen. Die mit der MST-Methode definierten Cluster ergeben sich direkt aus der unterschiedlichen Dichteverteilung der Photonen auf der Detektorfläche in einem Einzelereignis. Die Cluster werden mit den obengenannten Fragmenten in Zusammenhang gebracht, wobei die Zahl der Photonen in einem Cluster die Fragmentgröße S darstellt. Ein wesentlicher Vorteil der MST-Methode besteht darin, daß sie zunächst keinerlei Einschränkung in der Art der zu suchenden Strukturen erfordert. Es müssen keine räumlichen Strukturen vorgegeben werden, nach denen dann in der Punkteverteilung gesucht wird, wie das in anderen Analysemethoden der Fall ist. Aus der durchgeführten Analyse hat sich ergeben, daß die MST-Methode sehr sensitiv auf Fluktuationen in der räumliche Dichteverteilung der Treffer im Einzelereignis ist. Die zweidimensionalen Räume, in denen die Dichteverteilung untersucht wird, können beliebig festgelegt werden und sind durch die Metrik, in der die Abstände des Minimal-Spanning-Trees berechnet werden, definiert. In dieser Arbeit wurden der x-y- Raum (Metrik 1) und der h-j-Raum (Metrik 2) benutzt. Dabei gibt Metrik 1 im wesentlichen Effekte in der Detektorgeometrie wieder und Metrik 2 ist eher dem Phasenraum und damit der Physik angepaßt. Zum Vergleich mit den Ergebnissen aus WA93-Datenereignissen wurden Cluster auf die gleiche Weise in Mixed Events, in Ereignissen aus Modellrechnungen und in Ereignissen mit Zufallsverteilungen von Punkten bestimmt. Die räumliche Verteilung der in den WA93-Datenereignissen gefundenen Cluster auf der Ebene des Detektors weist auf starke Inhomogenitäten in der Photonenverteilung hin. Der Vergleich mit entsprechenden Verteilungen der Cluster in Mixed Events und berechneten Ereignissen zeigt, daß ein Großteil dieser Inhomogenitäten durch Detektoreffekte verursacht wird. Zu diesen Detektoreffekten zählt auch die hohe Ansprechwahrscheinlichkeit für geladene Hadronen, so daß durch den Einsatz des Dipolmagneten eine inhomogene Verteilung der Treffer auf dem PMD verursacht wird. Diese durch Detektoreffekte verursachten Inhomogenitäten in den Photonenemissionsmustern können mögliche, durch physikalische Ursachen während der Kollision hervorgerufene, Dichtefluktuationen überlagern. Die Größenverteilung der Cluster in den WA93-Daten konnte mit einer Funktion Sa angenähert werden. Die Konstante a ergab sich dabei zu -3.0 für die in Metrik 1 gefundenen Cluster und -2.7 für die in Metrik 2 gefundenen Cluster. Die Größenverteilung der in den WA93-Datenereignissen mit Metrik 1 bestimmten Cluster zeigt keine großen Abweichungen zu den aus Mixed Events und aus simulierten Ereignissen gewonnenen Größenverteilungen. Die Größenverteilung, die mit Metrik 1 aus einer reinen Zufallsverteilung von Punkten erhalten wurde, liegt unterhalb der anderen drei Verteilungen. In den Verteilungen der Größe der in Metrik 2 definierten Cluster bestehen jedoch deutliche Unterschiede von WA93-Datenereignissen zu den Verteilungen aus anderen Ereignissen mit vergleichbaren Pseudorapiditätsverteilungen. Es wird eine Erhöhung der Wahrscheinlichkeit für große Cluster mit mehr als 20 Photonen in realen Datenereignissen beobachtet. Zunächst wurde angenommen, daß diese Erhöhung der Wahrscheinlichkeit für große Cluster die Folge der starken Inhomogenitäten in der zugrundeliegenden Trefferverteilung sein könnte. Wie die detaillierte Untersuchung der räumlichen Verteilung der Cluster jedoch gezeigt hat, ist diese inhomogene Verteilung der Photonen auch in den Mixed Events zu finden; die Erhöhung der Wahrscheinlichkeit für große Cluster tritt allerdings nicht auf. Daß diese Beobachtung in den Mixed Events nicht gemacht wird, könnte ein Hinweis darauf sein, daß die Erhöhung in der Größenverteilung der Cluster durch physikalische Ursachen hervorgerufen wird. Ein weiterer Hinweis darauf, daß die Ineffizienzen des Detektors allein nicht zu großen Clustern führen, zeigt der Vergleich von Mixed Events zu den Datenereignissen mit zufälligem Azimut. Trotz der Unterschiede in der räumlichen Verteilung der Cluster ergibt sich eine annähernd gleiche Wahrscheinlichkeitsverteilung. Die in dieser Arbeit mit der MST-Methode durchgeführten Analyse hat gezeigt, daß „saubere“, d.h. untergrund- und detektoreffektfreiere Photonendaten notwendig sind, bevor Rückschlüsse auf zugrundeliegende physikalische Ursachen gemacht werden können. Dazu ist eine wesentliche Verbesserung der Datenauslese erforderlich, um die großen Unterschiede zwischen den einzelnen Auslesemodulen zu vermeiden. Eine Weiterentwicklung in der Datenaufbereitungsmethode könnte zu einer besseren Separation von Hadronen und Photonen und damit zu einer untergrundfreieren Photonenmessung führen. Erforderlich ist auch eine sehr genaue Simulation der Detektoreffekte durch Angabe aller Details des Experiments im GEANT-Programm. Nach den Schwerionenexperimenten mit Sauerstoff- und Schwefelstrahlen wurde das Schwerionenprogramm am CERN 1994 durch den Bleistrahl 208Pb mit der Energie von 158 GeV pro Nukleon weitergeführt. Mit der Vergrößerung des Reaktionssystems erwartete man nicht unbedingt eine Erhöhung der Energiedichte, aber einen größeren Thermalisierungsgrad des Systems. Ziel blieb immer noch der Nachweis des Quark- Gluon-Plasmas und die Erforschung von Materie unter extremsten Bedingungen. Um eine möglichst universelle Aussage über den Ablauf einer ultrarelativistischen Schwerionenreaktion machen zu können, wurde ein Experiment, das WA98-Experiment, mit einer großen Akzeptanz für die Messung von Photonen und Hadronen entworfen. Die Kombination von Signalen verschiedener Detektoren sollte es ermöglichen unterschiedliche Charakteristika der Stoßprozesse parallel zu untersuchen. Basierend auf den Erfahrungen mit dem Photonen-Multiplizitäts-Detektor im WA93-Experiment, auch die im Zusammenhang mit dieser Arbeit gewonnenen Erkenntnisse, wurde ein größerer und verbesserter Detektor für den Einsatz im WA98- Experiment gebaut. Der Detektor wurde erstmals 1994 zur Messung von Photonenverteilungen in Pb-Pb Kollisionen bei Energien von 158 GeV pro Nukleon am CERN SPS eingesetzt.
Im Rahmen der vorliegenden Arbeit wurden alle UAW-Verdachtsfallberichte nach Anwendung von Impfstoffen, die dem Paul-Ehrlich-Institut im Zeitraum von 1987 bis 1995 zugingen, nochmals aufgearbeitet und für jeden Impfstoff ein Nebenwirkungsprofil (PEI-UAW-PROFIL) erstellt. In diesem Zusammenhang wurden die derzeit gebräuchlichen Systeme zur Arzneimittelüberwachung und Kausalitätsbewertung vorgestellt und diskutiert. Alle derzeit von der ständigen Impfkommission (STIKO) empfohlenen Schutzimpfungen wurden kurz beschrieben und die verfügbaren Impfstoffe mitsamt ihres UAW-Profils charakterisiert. Abschließend wurden Möglichkeiten der Optimierung des derzeit gebräuchlichen passiven Spontanerfassungssystems aufgezeigt.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.
Der Weltfrieden hängt heute mehr denn je von der Kommunikation zwischen den Menschen unterschiedlichster Kulturen ab. Jenseits der Dialoge des Westens und Ostens, des Nordens und Südens liegt das Dynamit von interkulturellen Konflikten. Obgleich zumeist lokal begrenzt, zerreißen sie mit ihrer Sprengkraft Blöcke. Kriege, Entkolonialisierungskämpfe, ökologische und soziale Krisen können ab dem 20. Jahrhundert unversehens ein globales Ausmaß annehmen. ...
Im Rahmen dieser Arbeit wurde der Aufbruchsmechanismus des Projektilspektators im relativistischen Energiebereich untersucht. Es zeigte sich dabei, daß die in vorherigen Experimenten beobachtete Targetunabhängigkeit der Fragmentproduktion bei 600 AMeV sich als universelle Eigenschaft des Zerfalls von angeregter und expandierter Kernmaterie erweist. Die Untersuchung von Ladungskorrelationen zeigte ebenfalls weder eine Energie- noch Projektilabhängigkeit im Rahmen der experimentellen Auflösung. Diese Ergebnisse sind im wesentlichen auch zu höheren und niedrigeren Energien von anderen Experimenten bestätigt worden. Mit diesem experimentellen Befund kann eindeutig der Beweis für die Existenz einer Multi-Fragmentproduktion bei relativistischen Energien gegeben werden. Im Rahmen von Modellen können die beobachteten Ladungsobservablen mit einem statistisch dominierten Zerfall erklärt werden. Die sich daran anschließende Frage nach dem Aufbruchsmechanismus und dessen Eigenschaften wurde weiterführend mit Ausrichtung auf kinematische und thermodynamische Eigenschaften des Systems untersucht. Dabei ergab sich, daß die kinematischen Observablen der Projektilquelle einen thermisch äquilibrierten Zustand widerspiegeln, unabhängig vom Stoßparameter und der Einschußenergie. Die hierbei beobachtete Emission von leichten Teilchen, die nicht eindeutig einer intermediären oder Projektilquelle zugeordnet werden konnten, ist hierbei Hinweis auf Nicht-Gleichgewichtsanteile, die in der frühen Phase der Reaktion gebildet werden. Mit der Untersuchung von kollektiven Eigenschaften des zerfallenden Systems wurde versucht, einen quantitativen Einblick in die Reaktionskinematik und den damit zusammenhängenden Energietransfer in den Projektilspektator zu erhalten. Diese Analysen ergaben, daß es bei gleichem Stoßparameter eine starke Abhängigkeit des "Bounce Off" von der Targetmasse gibt, während zu höheren Energien, beim gleichen System, nur ein kleiner Effekt zu höheren Impulsüberträgen (5-10 MeV/c) beobachtet wird. Die Energiebilanz des Systems und die hieraus extrahierten Anregungsenergien zeigten zum ersten Mal in experimentellen Daten ohne Zuhilfenahme von theoretischen Modellen, daß für die stark asymmetrischen Systeme nicht der gleiche Zusammenhang zwischen Anregungsenergie und Z bounce; erhalten wird wie bei den symmetrischen Systemen. Dies zeigt sich bei den asymmetrischen Systemen durch eine Saturation der Anregungsenergie mit kleiner werdendem Z bounce, im Gegensatz zu den symmetrischen Systemen, die einen weiteren Anstieg zeigen. Die absoluten Werte der maximalen Anregungsenergie von <E0/A0> ~ 21-23 MeV bei halbzentralen Reaktionen von 197 Au + 197 Au bei 800 AMeV und <E0/A0> ~27 MeV bei 238 U + 238 U 1000 AMeV sind verschieden bei gleichem Z bound. Es stellt sich jedoch heraus, daß mit Ausnahme der stark asymmetrischen Systeme die Anregungsenergie pro herausgeschlagenem Nukleon (<E Knock/A>) in Abhängigkeit von der prozentualen Größe des Prefragments zu peripheren Reaktionen monoton und energieunabhängig steigt.Werden die experimentell bestimmten Anregungsenergien verglichen mit denen aus theoretischen Modellen, so sind diese immer deutlich geringer. Im statistischen Modell von Botvina und Mitarbeitern, das von D´esesquelles mit unseren Daten verglichen wurde [D´ese 96] [D´ese 95], ergaben sich maximale Anregungsenergien von <E0/A0> ~ 7-8 MeV in zentralen Reaktionen. Ein Vergleich mit QMD + SMM ergibt, daß für die asymmetrischen Systeme (197AU + 12C)mit einer Anregungsenergien von maximal <E0/A0> ~ 8-9 MeV eine Beschreibung der Daten möglich ist. Für die symmetrischen Systeme zeigt sich eine zunehmende Diskrepanz mit zunehmender Targetmasse zwischen den experimentellen und theoretischen Anregungsenergien. Die Ladungsobservablen der Daten werden von der verwendeten QMD + SMM-Rechnung und der QMD (SACA)-Rechnung gut wiedergegeben. Durch Anpassung von Rechnungen mit dem Quantenstatischen Modell [Hahn 88b] (QSM) an die experimentellen Daten ergaben sich Aufbruchsdichten bei zentralen Reaktionen von rho/rho 0 ~ 0.3 bis 0.4, diese sind konsistent mit dem Aufbruch eines äquilibrierten und expandierten Systems. Die aus QSM erhaltenen Temperaturen des Quellsystems in Abhängigkeit von der Anregungsenergie geben im wesentlichen den von Pochodzalla und Mitarbeitern beobachteten Verlauf der kalorischen Kurve wieder. Die Frage, ob dieser Verlauf einen Phasenübergang von flüssig zu gasförmig darstellt, ist anhand dieser Methode nicht zu entscheiden. Die Ergebnisse der Ladungsobservablen in Verbindung mit den kollektiven Eigenschaften zeigen, daß die Anregungsenergie, die zum Erreichen des Maximums der M Fragmentproduktion ( <M IMF> ~ 4.4) nötig ist <E0/A0> ~ 11 MeV, einen geringeren absoluten Wert hat als der Bereich des möglichen Phasenübergangs <E0/A0> ~17 MeV. Im Gegensatz dazu stellt sich das Maximum der mittleren IMF -Produktion energie-, target- und projektilunabhängig bei <E0/A0> ~11 MeV ein. Mit diesemVergleich wird deutlich, daß zur näheren Untersuchung des Phasenübergangs von Kernmaterie nicht die in der Anregungsenergie saturierenden asymmetrischen Projektil-Target Kombinationen benutzt werden können. Die physikalische Fragestellung einer neuen Generation von Experimenten mit dem ALADIN-Detektor müßte in der Quantifizierung des Phasenübergangs und seiner dynamischen Observablen liegen. Dabei ist Beantwortung der Frage nach der zeitlichen Entwicklung der Fragmentproduktion über Korrelationen der Fragmente im Bereich des Phasenübergangs im Vergleich zum Maximum der universellen Kurve sowie die ereignisweise Bestimmung von dynamischen Observablen anzustreben.
Analyse der hadronischen Endzustandsverteilungen in ultra-relativistischen Blei-Blei-Kollisionen
(1997)
Die in ultra-relativistischen Schwerionenkollisionen erreichten Dichten und Temperaturen der hochangeregten hadronischen Kernmaterie führen möglicherweise zu einem Übergang in eine partonische Phase ohne Einschluß der Quarks und Gluonen in Hadronen (Quark-Gluon Plasma). Dieser Kontinuumszustand der Quantenchromodynamik wird in der frühen Anfangsphase des Universums bei sehr hohen Temperaturen und im Inneren von Neutronensternen bei einem Vielfachen der Grundzustandsdichte von Kernmaterie erwartet. Im Herbst 1994 wurden am europäischen Kernforschungszentrum CERN im Rahmen des NA49-Experimentes zentrale 208Pb + 208Pb - Kollisionen am SPS bei einer Einschußenergie von 158 GeV pro Nukleon untersucht. Die Daten wurden in einer der Spurendriftkammern (VTPC2) aufgenommen, die zur präzisen Messung des Impulses in einem Magnetfeld positioniert wurde. Aus diesem Datenensemble wurden in dieser Arbeit 61000 Ereignisse in Hinblick auf die Produktion negativ geladener Hadronen (h-) und die Endzustandsverteilungen der an der Reaktion teilnehmenden Nukleonen (Partizipanten) analysiert. Die Phasenraum-Akzeptanz der VTPC2 erstreckt sich für die negativ geladenen Hadronen im Rapiditätsintervall yPi = [3.2 5.0] und für die Netto-Protonen bei yp = [3.0, 4.4] über den Transversalimpuls-Bereich von p..=[0.0 2.0] GeV/c. Die statistischen Fehler der vorgestellten Ergebnisse reduzieren sich durch die große Statistik zu << 1%, die systematischen Fehler der Impulsmessung liegen im Bereich <= 2%. Die Korrektur auf Ineffizienzen des verwendeten Spur-Rekonstruktionsalgorithmus ist mit der lokalen Spurdichte und der Ereignismultiplizität korreliert und trägt wesentlich zum systematischen Fehler bei: für die negativ geladenen Hadronen im Bereich von 5%, für die Netto-Protonen 15-20%. Die Untersuchung der Effekte hoher Raumladungsdichten in verschiedenen Zählgasen der Spurendriftkammern führte zu einer Optimierung der Betriebsparameter der Detektoren und damit zu einer Reduzierung der Zahl saturierter Auslesekanäle. Die erhöhte Effizienz der Spurpunkt-Rekonstruktion verbesserte die Zweispurauflösung auf 100% bei einem mittleren Abstand von 2 cm zwischen zwei benachbarten Spuren, die Ortsauflöosung in der VTPC2 liegt im Bereich von 270-350 Mikrom in longitudinaler und transversaler Richtung und die relative Impulsauflösung beträgt dp/p exp 2 ~ 2 x 10 exp (-4) (GeV/c) exp (-1). Die in zentralen Blei-Blei-Stößen produzierten negativ geladenen Hadronen weisen mittlere Transversalimpulse von <p..> ~ 366 MeV/c bei y Pi = 4.3 bis <p..> ~ 300 MeV/c bei y Pi auf; für die Netto-Protonen fällt der aus dem mittleren Transversalimpuls berechnete Temperaturparameter von 275 MeV bei midrapidity bis zu 230 MeV bei yp = 4.3 ab. Im Vergleich mit anderen Stoßsystemen als Funktion der Anzahl produzierter Teilchen wird ein leichter Anstieg von <p..> beobachtet. Die Rapiditätsabhängigkeit des mittleren Transversalimpulses der produzierten h- in Nukleon-Nukleon- und zentralen Schwefel-Schwefel-Reaktionen ist mit denen der untersuchten Pb-Kollisionen in Form und Breite der Verteilung vergleichbar. Die Analyse der Transversalimpuls-Spektren von h- und (p-anti-p) fürt zu inversen Steigungsparametern von <T Pi> ~ 165 MeV und <T Pi> ~ 255 MeV, die teilweise über der von Hagedorn vorhergesagten Grenztemperatur eines hadronischen Gases liegen. Zudem zeigen die Spektren des invarianten Wirkungsquerschnittes deutliche Abweichungen von dem in einem thermischen Modell erwarteten exponentiellen Verlauf bei kleinen und großen <p..>. Innerhalb eines hydrodynamischen Modells sind diese Abweichungen vom idealen Verlauf mit einer kollektiven transversalen Expansion kompatibel, die mittleren transversalen Flußgeschwindigkeiten betragen <v..> ~ 0.6 c, die Ausfriertemperaturen <T PI, f0> ~ 95 MeV und <T P, f0> ~ 110 MeV. Die im Vergleich zu Nukleon-Nukleon-Stößen in Schwerionenreaktionen erhöhte Produktion von h- bei kleinen Transversalimpulsen wird in allen betrachteten y Pi -Intervallen zu 10-20% bestimmt. Im Gegensatz zu Messungen des NA44-Experimentes mit <h->/<h+> = 1.8 kann aus dem Verhältnis des invarianten Wirkungsquerschnittes von negativ zu positiv geladenen Hadronen bei kleinen transversalen Energien nur eine moderate Erhöhung um <h->/<h+> = 1.2 festgestellt werden, was auf keinen signifikanten Coulomb-Effekt durch eine mitbewegte positive Ladung schließen läßt. Die Erweiterung der Akzeptanz der (p - anti p)-Rapiditätsverteilung in der VTPC2 durch Messungen der MTPC bei großen Rapiditäten führt zu einer mittleren Gesamtmultiplizität von 151 +- 9 an der Reaktion teilnehmenden Protonen pro Ereignis. Der durchschnittliche Rapiditätsverlust der Projektilprotonen beträgt <delta y> = 1.99 +- 0.19, für zentrale Kollisionen des S+S-Systems ergibt sich ein um 20% niedrigerer Wert. Das Verhältnis der Dichte der hochkomprimierten Materie im Reaktionsvolumen zur Grundzustandsdichte von Kernmaterie ist im Rahmen von Modellvorhersagen rho/rho ~ 7.3. Der mittlere Energieverlust pro Nukleon im Schwerpunktsystem wurde bei einer zur Verfügung stehenden Eingangsenergie von sqrt(s) = 8.6 GeV/Nukleon zu <dE> exp (cms) N = 5.4 GeV ermittelt: die Stopping Power ergibt P = 63 %. Aus der Baryonen-Dichte bei midrapidity läßt sich in einem einfachen 2-Flavour Modell das baryo-chemische Potential zu mü-B = 182 MeV berechnen. Die ermittelte Gesamtmultiplizität der h- beträgt 716 +-11, die Breite einer angepaßten Gauß-Verteilung ist mit Rhp -Pi = 1.37 um 40% breiter als die dn/dy-Verteilung einer stationären, thermisch emittierenden Quelle: zusammen mit Messungen der Quellgrößen und einer longitudinalen Expansionsgeschwindigkeit innerhalb der HBT-Analyse ergibt sich das Bild einer elongierten, longitudinal boost-invariant expandierenden Quelle. Die dn/dy-Verteilungen der h- aus <N + N>- und Pb+Pb-Reaktionen zeigen die Andeutung eines Plateaus um die Schwerpunktsrapidität, was auf eine Teilchenproduktion gemäß dem Bjorken-Bild entlang eines zylinderförmigen Reaktionsvolumens schließen läßt. Die Zahl der produzierten negativ geladenen Hadronen pro Partizipant beträgt in den analysierten Ereignissen <h->/<N B - AntiB> = 1.88 und steigt im Vergleich mit den Werten aus den symmetrischen Stßsystemen <N+N> und S+S leicht an. Die im Reaktionsvolumen deponierte Energie aus dem Energieverlust der partizipierenden Nukleonen wird somit nur geringfügig für die erhöhte Produktion von h- verwendet. Die h-Multiplizität als Maß für die System-Entropie zeigt - ebenso wie die im NA35-Experiment gemessenen zentralen S+S-Kollisionen bei 200 GeV pro Nukleon - als Funktion der Einschußenergie der Projektilkerne eine Überhöhung im Vergleich zu Reaktionen bei niedrigeren Energien, was einem möglichen Anstieg der Zahl der Freiheitsgrade und damit der Formation einer partonischen Phase bei ultra-relativistischen Schwerionenkollisionen entsprechen könnte. Aus den Messungen der Netto-Baryonen und der produzierten h- wurde im Bjorken-Bild die Energiedichte im zentralen Reaktionsvolumen zu E = 2.14 GeV/fm exp 3 bestimmt.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
Zur adäquaten Bestrahlung maligner Tumoren ist eine gute Reproduzierbarkeit der angestrebten Bestrahlungsposition bei jeder Therapiefraktion von entscheidender Bedeutung. Bei der freien Lagerung von Patienten muß die Bestrahlungsposition anhand von Hautmarkierungen sicher nachvollziehbar sein. Häufiges Nachzeichnen schränkt die Identifizierbarkeit dieser Einstellhilfen durch ein zunehmendes Maß an Ungenauigkeit ein. Im ersten Teil der Studie wurden drei verschiedene Markierungsverfahren in bezug auf ihre Eignung in der Bestrahlungsroutine verglichen. Es handelte sich um zwei Verfahren zur Konservierung der Haumarkierungen mit Hilfe von Wundverbänden und um die Hautmarkierung mit einem speziellen Hautmarkierungsstift. Zur Bewertung dienten die Kriterien Haltbarkeitsdauer und Identifizierbarkeit, sowie Hautverträglichkeit. Es zeigte sich, daß ausschließlich der Viomedex ® Hautmarkierungsstift für den Einsatz bei der Bestrahlung geeignet war. Im zweiten Teil der Studie wurde prospektiv untersucht, ob verglichen mit der bisher geübten Praxis mit Viomedex ® eine Verlängerung der Haltbarkeit der Hautmarkierungen und eine Verbesserung der Reproduzierbarkeit der Patientenlagerung erreicht werden kann. Haltbarkeit und Reproduzierbarkeit wurden in Abhängigkeit von den Hautmerkmalen Nachtschweiß, Schweißneigung, Behaarungsgrad und Hauttyp sowie dem Zeitpunkt der Einzeichnung ermittelt. Die durchschnittliche Haltbarkeit, betrug 11,02 Tage. Sie stand in keinem signifikanten Zusammenhang zu bestimmten Hautparametern. Einzeichnungen, die zu einem späteren Zeitpunkt im Verlauf der Strahlenbehandlung erfolgten, wiesen eine etwas längere Haltbarkeit auf, der Unterschied war statistisch nicht signifikant. Durch Identifizierung anatomischer Bildpunkte wurden die Verifikationsaufnahmen mit der jeweiligen Simulationsaufnahme verglichen und die mittlere Gesamtabweichung aller untersuchten Einstellungen als Maß für die Reproduzierbarkeit der Bestrahlung berechnet. Ein signifikanter Zusammenhang mit dem Zeitpunkt der Einzeichnung oder mit bestimmten Hautparametern trat nicht auf. Gegenüber früheren Untersuchungen unseres Institutes ergab sich eine stark verbesserte Reproduzierbarkeit. So verringerte sich der Wert der Gesamtabweichung bei der Bestrahlung der weiblichen Brust von 0,605 cm auf 0,490 cm. Bei Betrachtung der übrigen Patienten, die ohne Fixationshilfen bestrahlt wurden, konnte die Gesamtabweichung von 1,082 cm auf 0,655 cm gesenkt werden. Auch der Prozentsatz sehr großer Einstellfehler (>1 cm) ist im internen Vergleich bei der Bestrahlung aller Körperregionen von 47,7 % auf 20,4 % zurückgegangen. Es wurde gezeigt, daß durch langhaftende, sorgfältig eingezeichnete Hautmarkierungen, die Reproduzierbarkeit der Einstellungen bei frei gelagerten Patienten verbessert werden kann. Eine ProblemPatientengruppe, die aufgrund ihrer Hauteigenschaften einer gesonderten Markierungsmethode bedarf, wurde nicht ermittelt. Es konnten feste Regeln zum Anbringen und Überwachen der Hautmarkierungen formuliert werden, die in die Bestrahlungsroutine der Klinik für Strahlentherapie der J. W. GoetheUniversität aufgenommen wurden.
Die präventive Rückenschule zu Pferde ist eine Möglichkeit haltungsgefährdete Kinder, besonders solche, die nicht zur aktiven Teilnahme an einer konventionellen Rückenschule zu bewegen sind, durch den besonderen Anreizdes Pferdes zu rückenschonendem Verhalten zu motivieren. In mehreren Pilotstudien konnten ermutigende Beobachtungen gemacht werden. Verschiedene Verfahren zur Evaluation einer Rückenschule wurden betrachtetund eine Bewertung wurde vorgenommen. Im Vordergrund der Betrachtung standen die Haltung und eventuelle Beschwerden. Die Beurteilung der Haltungdurch den Orthopäden im Rahmen einer körperlichen Untersuchung erscheint uns als das verlässlichste Instrument. Von besonderer Bedeutung ist hierbei der Halteleistungstest nach Matthias. Der Einsatz von Fragebogen erfasst den Parameter Beschwerden am sichersten. Ultraschallvermessungen zur Haltungsbeurteilung und Mobilitätsbestimmung sind wegen unklarer Validität der Daten noch nicht zu empfehlen. Auch die Erfassung von Ausdauer oder Erschöpfung sowie Kraftzunahme ist mit der Elektromyographie noch nicht sicher zu leisten. Zukünftige Entwicklungen bleiben abzuwarten. Die Durchführung der "Präventiven Rückenschule zu Pferde" ist nach unseren positiven Erfahrungen empfehlenswert.
Defluran ist ein volatiles Inhalationsästhetikum aus der Gruppe der halogenierten Methyl-Äthyl-Äther. Eines seiner Nebenwirkungen ist die Verstärkung eines kompetitiven neuromuskulären Blocks. Die vorliegende Dissertation untersucht den Einfluss von Desfluran auf die Wirkstärke der nichtdepolarisierenden Muskelrelaxan zien Vecuronium, Atracurium und Pancuronium. Patienten der ASA-Klassifikation I und II wurden randomisiert in fünf Untersuchungsgruppen aufgeteilt. Die Wirkstärke-Untersuchungen der verschiedenen Muskelrelaxanzien wurden jeweils unter Desfluran-Narkose und als Kontrollgruppe unter modifizierter Neuroleptanästhesie durchgeführt. Die Messung der neuromuskulären Funktion wurde mechanographisch durchgeführt. Mit Hilfe der gefundenen kumulativen Effekte und der gegebenen kumulativen Dosen wurden für jeden Patienten durch semilogarithmische Regressionsanalysen eine kumulative Dosis-Wirkungskurve berechnet und individuelle 50-%- bzw. 95-%- Blockadedosen (ED50, ED95) ermittelt. Die resultierenden ED50- (ED95-)Werte wurden nach Untersuchungsgruppen zusammengestellt und mit Hilfe eines nicht-parametrischen Tests auf statistisch signifikante Unterschiede zwischen den Gruppen untersucht. Signifikanzniveau war die Irrtumswahrscheinlichkeit von 5%. Desfluran potenziert die relaxierende Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und auch Pancuronium. Bezogen auf die ED50 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 33% und für Atracurium bei 36%. Bezogen auf die ED95 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 34% und für Atracurium bei 38%. Vecuronium und Atracurium werden durch Desfluran in geringfügigem Masse unterschiedlich potenziert. Zusammenfassend lässt sich sagen, dass Desfluran die Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und Pancuronium um ein Drittel ihrer Wirkstärke potenziert, das heisst, um die gleiche Wirkung zu erhalten, ist eine Dosisreduktion der Muskelrelaxanzien um ca. ein Drittel vorzunehmen. Zudem lässt sich anhand von vergleichenden Daten aus der Literatur nachweisen, dass die Potenzierung kompetitiver Muskelrelaxanzien durch die Ätherderivate Desfluran/Isofluran substanz unabhängig ist, wobei sich die Substanzunabhängigkeit sowohl auf die verwendeten Muskelrelaxanzien als auch auf die applizierten Ätherderivate bezieht.
Zur Beantwortung der Frage nach dem Auftreten einer Narbenhernie nach medianerLaparotomie bei elektiver colorektaler Chirurgie wurden 482 Patienten befragt. Diese Patienten wurden im Zeitraum von Anfang 1985 bis Anfang 1994 in derChirurgischen Klinik I der Städtischen Kliniken Offenbach mit dieser Technik operiert.423 Patienten konnten mittels eines Fragebogens nachuntersucht werden. Bei der Auswertung dieser Fragebögen zeigte sich, dass es bei 10,17% der Patienten zu einerNarbenhernie kam. 86% dieser Hernien traten innerhalb der ersten zwei postoperativen Jahre auf.Zur Frage, welchen Einfluss die bekannten Risikofaktoren auf die Häufigkeit des Auftretens einer Narbenhernie hatten, wurden folgende Faktoren untersucht: -männliches Geschlecht -frühere Laparotomie -Adipositas -Hypertonie -Diabetes mellitus -chronische Atemwegserkrankungen -postoperative Beatmung -Wundheilungsstörungen -Alter -Nahtmaterial -Bluttransfusion -Anämie -Hypoproteinämie -postoperative Chemotherapie -Nahttechnik Die hier untersuchten Faktoren könnten Risikofaktoren für das Auftreten einerNarbenhernie sein. Es kam zu einem statistisch signifikant höheren Auftreten von Hernien (c2-Test bei der Irrtumswahrscheinlichkeit a=0,05) bei Patienten mitpostoperativer Chemotherapie und in der Gruppe der 51 bis 60 Jahre alten Patienten. Folgende Faktoren scheinen die wichtigsten zu sein: -postoperative Beatmung -postoperative Chemotherapie (signifikant) -Wundheilungsstörungen -Alter zwischen 51 und 60 Jahre (signifikant) -frühere Laparotomie -chronische Atemwegserkrankungen -Einzelknopfnaht -Adipositas -Polyglykolsäure (Dexon(R)) als Nahtmaterial -arterielle Hypertonie -männliches Geschlecht Die übrigen untersuchten Faktoren zeigen ein nur gering höheres Auftreten oder sogar ein niedrigeres Auftreten von Hernien. Dies ist zum Teil auf die geringe Anzahl derPatienten in diesen Gruppen zurückzuführen. Beim Vergleich der aseptischen mit den kontaminierten Eingriffen kommt es zueinem signifikant höherem Auftreten von Narbenhernien in der Gruppe der aseptisch Operierten. Bei dieser Gruppe erfolgte im Gegensatz zur Gruppe mit denkontaminierten Eingriffen der Bauchdeckenverschluss mit nichtresorbierbarem Nahtmaterial (Prolene(R)).Man kann zusammenfassend sagen, dass ein erhöhtes Auftreten von Hernien bei Patienten zu erwarten ist, bei denen es zu einer Beeinträchtigung der Wundheilungoder zu einer Erhöhung des intraabdominellen Druckes kommt. Weiteres Augenmerk ist auf das verwendete Nahtmaterial sowie die Nahttechnik zu richten. EineVerwendung von Polyglykonat in fortlaufender Nahttechnik hat gemäss dieser Untersuchung ein geringeres Auftreten von Narbenhernien zur Folge.Eine Untersuchung, die die Gründe des signifikant höheren Auftretens von Hernien bei Patienten mit Arteriopathien betrachtet, scheint mit dieser speziellen Fragestellungsinnvoll zu sein.
Elektrische Kardioversion bei persistierendem Vorhofflimmern : ambulante versus stationäre Therapie
(1998)
Aufgrund ihrer bekannten Sicherheit und hohen Erfolgsrate ist die Elektrokardioversion im stationären Rahmen eine etablierte Therapie bei chronisch persistierendem Vorhofflimmern. In der vorliegenden Arbeit haben wir untersucht, ob auch die ambulante Durchführung einer Kardioversion mit gleicher Effektivität und Sicherheit möglich ist. Somit war Ziel der Arbeit, ambulante Kardioversionen zu untersuchen und der stationären Behandlung gegenüberzustellen. Während der anderthalbjährigen Laufzeit der prospektiven, nicht randomisierten Studie wurden 88 konsekutive, elektive Kardioversionen (an 65 Patienten) ambulant durchgeführt; insgesamt wurden während dieses Zeitraums 115 Prozeduren (bei 88 Patienten) erfaßt. Es wurde anschließend eine Nachbeobachtung über einen mittleren Zeitraum von 203 Tagen durchgeführt. Die Studie ergab, daß ambulante Kardioversionen zu 84% erfolgreich waren und Rezidive in 59% der Fälle innerhalb der Nachbeobachtung eintraten. Es zeigte sich bei den Patienten eine Abhängigkeit des Kardioversionserfolges vom Bestehen des Vorhofflimmerns. In der statistischen Analyse stellten sich keine klinischen Parameter als signifikant mit einem Rezidiv verbunden dar. Der abschließende Vergleich mit einer stationär therapierten Patientengruppe ergab keine signifikanten Unterschiede bezüglich Erfolg, Rezidiv und Sicherheit der Behandlung. Behandlungsbedürftige Akutkomplikationen traten bei 1,7% der ambulanten Kardioversionen auf. Schwere Komplikationen, insbesondere Embolien, wurden nicht beobachtet. Es traten keine schweren Blutungskomplikationen bei den chronisch antikoagulierten Patienten auf. Ambulante Kardioversionen sind der Therapie im stationären Rahmen gleichwertig und zudem deutlich kostengünstiger durchführen. Als Konsequenz dieser Untersuchung ist bei elektiven Eingriffen die ambulante Kardioversion des Vorhofflimmerns der stationären Behandlung vorzuziehen.
Die multiple Sklerose mit ihren 3 klinischen Verlaufssubformen schubförmig, sekundär chronisch-progredient und primär chronisch-progredient weist sowohl im klinischen Symptomenbild als auch in der Verlaufsdynamik eine ausgesprochene Heterogenität auf. Als prognostisch ungünstig gelten in erster Linie der primär oder sekundär chronisch-progrediente Krankheitsverlauf, ein höheres Manifestationalter, eine initiale cerebelläre und/oder pyramidale Symptomatik und ein in der frühen Phase sich rasch kumulierendes funktionelles Defizit. Andere mögliche Einflussgrössen, insbesondere genetische Faktoren, Liquorparameter und primäre Behandlungsstrategien, sind diesbezüglich umstritten oder weitgehend negativ geblieben. Eine sowohl im Hinblick auf die Krankheitsdefinition im Einzelfall als auch in prognostischer Hinsicht, in absehbarer Zeit vielleicht sogar für die Therapie, relevante Frage ist die des Auftretens einer zweiten neurologischen Krankheitsepisode (Schub, Attacke) nach einer zunächst isoliert aufgetretenen Episode einer entzündlichen neurologischen Erkrankung, die von der Art der Symptomatik und nach den technisch-apparativen wie laborbezogenen Zusatzbefunden als Erstschub einer multiplen Sklerose aufgefasst werden könnte. Die hierzu bislang vorliegenden Untersuchungen hatten in erster Linie die isolierte Optikusneuritis und monosymptomatische ZNS-Syndrome wie Querschnittsmyelitis, Episoden mit rein sensiblen Störungen und solche mit ausschliesslicher Hirnstammsymptomatik zum Gegenstand. Bevölkerungsbezogene Daten wurden dabei jedoch nur für die Optikusneuritis vorgelegt, zudem war bei dieser die Wertigkeit der paraklinischen Zusatzbefunde nur anhand klinischer Serien untersucht worden. In der vorliegenden eigenen Studie wurde die spezielle Frage der Fortentwicklung von einer möglichen bzw. fraglichen multiple Sklerose in eine wahrscheinliche oder sichere MS in Form entweder eines zweiten Krankheitsschubes oder des Übergangs in einen sekundär chronisch-progredienten Verlauf anhand einer Subkohorte mit einer derartigen Ereigniskonstellation aus einem bevölkerungsbezogen ermittelten umfangreichen MS-Krankengut (N=950) untersucht. Der Studienansatz entspricht einer gemischten historisch und prospektiv angelegten Kohortenstudie. Als Einschlusskriterien galten die klinisch gestellte Verdachtsdiagnose der multiplen Sklerose im Sinne einer Einzelattacke und die Zugehörigkeit zu der die epidemiologische Studienpopulation bildenden Bevölkerung eines definierten Areales in Südhessen sowie die Durchführung der ersten stationären abklärenden Untersuchung in der das Studienzentrum darstellenden Neurologischen Klinik in Darmstadt. Die Daten zum weiteren Krankheitsverlauf der Kohortenmitglieder wurden teilweise im retrospektiven Ansatz der Einzelfalldokumentationen der epidemiologischen Feldstudie, ergänzt durch die Krankenblattarchive der Klinik, teilweise prospektiv (die nach den vorliegenden Aufzeichnungen ohne Zweitereignis gebliebenen und damit als zu zensierend anzusehenden Patienten betreffend) durch prospektives Nachfragen bei den weiterbehandelnden Ärzten und den Kohortenmitgliedern selbst in Erfahrung gebracht. Die Wahrscheinlichkeit des Ausfallsereignisses, d.h. des Auftretens einer weiteren Krankheitsepisode bzw. eines sekundär chronisch-progredienten Verlaufes wurde in Abhängigkeit von der Beobachtungszeit nach den Methoden der Überlebenszeitanalyse (Kaplan-Meier-Methode) ausgewertet, und der mögliche Einfluss von demographischen und klinischen Variablen wurde univariat mittels des Log-Rank-Testes und multivariat anhand des Cox'schen Proportional Hazard- Modells untersucht. Von den 136 hinsichtlich des weiteren Verlaufes auswertbaren Patienten der Kohorte trat während der Beobachtungsperiode von Januar 1982 bis August 1995 bei 71 (45 Frauen, 26 Männern) das Ausfallsereignis ein, wobei das Intervall zwischen 2 Monaten und 12 Jahren stark variierte. Für die Gesamtkohorte (N = 136) lag der Median bei 67 Monaten (Standardabweichung: 17 Monate), und nach 95 Monaten (7,9 Jahre) hatten 40 % der Kohortenmitglieder das Zweitereignis (noch) nicht entwickelt. Bei der univariaten Auswertung anhand des LogRank-Testes waren ein Erkrankungsalter unter 30 Jahren, eine andere Anfangssymptomatik als eine monosymptomatische Optikusneuritis, das Betroffensein von mehr als 2 Funktionssystemen bei der initialen Episode sowie eine abnorm erhöhte Liquorzellzahl, ein erhöhtes Liquoreiweiss und eine gesteigerte intrathekale IgG-Syntheserate bzw. wenigstens einer der genannten Liquorparameter sowie eine Latenzzeitverzögerung im VEP (mit oder ohne gleichzeitige Amplitudenreduktion) statistisch signifikant (P < 0,05) mit der Ereigniswahrscheinlichkeit assoziiert. Ein niedrigerer sozioökonomischer Status (manuelle Berufstätigkeit zu Krankheitsbeginn), das Vorhandensein motorischer bzw. pyramidaler Störungen bei der Ausgangsepisode, das Vorliegen multipler Herdbildungen in der Kernspintomographie und die Anwendung einer Steroidtherapie bei der initialen Krankheitsattacke waren diesbezüglich grenzwertig signifikant (P 0,05 < P < 0,1). Hingegen waren das Geschlecht, die Nationalität, die übrigen betroffenen Funktionssysteme beim Initialschub (darunter Hirnstammsymptome, eine rein sensible Anfangssymptomatik und zerebelläre Symptome), das Vorhandensein von 2 oder mehr im Vergleich zu einem Funktionssystem sowie die Befunde der somatosensorisch evozierten Potentiale (SEP) und der Computertomographie (CT) diesbezüglich ohne prädiktiven Wert. In der multivariaten Auswertung anhand des Cox'schen Regressionsmodells zeigten die Beteiligung von 3 oder mehr Funktionssystemen, eine über eine Optikusneuritis hinausgehende Anfangssymptomatik, Latenzzeitverlängerungen im VEP und eine gesteigerte intrathekale IgG-Syntheserate einen eigenständigen Beitrag zum Risiko des Progesses in Form eines Zweitereignisses und damit des Überganges in eine gesicherte multiple Sklerose, während die übrigen univariat mit dem Risiko verknüpften Variablen sich diesbezüglich als konfundiert erwiesen. Wenngleich die in den Ergebnissen zu Tage getretenen breiten Konfidenzintervalle eine Festlegung im Einzelfall enorm erschweren, lassen die Ergebnisse doch gewisse Trendaussagen sowohl im Hinblick auf die Planung wissenschaftlicher Studien als auch die Beratung des einzelnen Kranken zu. Insbesondere erscheint es gerechtfertigt, bei einer Kombination von mehreren der in der vorliegenden Studie herausgestellten positiven prädiktiven Einfluss- grössen von einer eher ungünstigen Prognose, die Entwicklung einer klinisch sicheren MS betreffend, auszugehen. Ob damit auch eine prognostische Voraussage über den in der eigenen Studie nicht untersuchten weiteren Langzeitverlauf möglich ist, kann in Anbetracht der stark kontroversen Datenlage in der Literatur, die initiale Schubhäufigkeit und die Zahl beteiligter Funktionssysteme betreffend, vorerst noch nicht beurteilt werden. Über den wissenschaftlich studientechnischen und den Beratungsaspekt hinausgehend ist von Interesse, ob die hier aufgezeigten prognostischen Prädiktoren auch als Richtschnur für therapeutische Entscheidungen dienen können. Da eine das hier untersuchte Zielereignis beeinflussende Therapie vorläufig nicht existiert, stellt sich diese Frage derzeit konkret noch nicht, entsprechende Untersuchungen sind aber beispielsweise für Interferon-beta 1a im Gange. In jedem Fall werden evtl. zukünftige derartige Entscheidungen, auch dann wenn sich krankheitsbezogene Prädiktoren wie die in der hiesigen Studie herausgestellten mit heranziehen lassen, angesichts potentieller Nebenwirkungen der jeweiligen Substanzen ein hohes Mass an ethischer Verantwortung erfordern.
Hämosiderinbeladene Alveolarmakrophagen in der bronchoalveolären Lavage pädiatrischer Patienten
(1998)
Idiopathische pulmonale Hämosiderose (IPH) ist eine seltene Erkrankung unklarer Ätiologie, die hauptsächlich Kinder und Jugendliche betrifft. Pulmonale Hämorrhagie ist in Assoziation mit diversen respiratorischen und systemischen Krankheiten beschrieben (Systemischer Lupus Erythematodes, Goodpasture Syndrom). Eine frühe Diagnose der pulmonalen Hämorrhagie ist von großer Bedeutung, da die in Frage kommenden Erkrankungen progrediente und letale Verläufe nehmen können. Die bronchoalveoläre Lavage (BAL) ist die Methode der Wahl, um hämosiderinbeladene Makrophagen nachzuweisen und mögliche Ursachen zu diagnostizieren (Infektionen, maligne Prozesse). Studie: Es wurden 64 bronchoalveoläre Lavagen hinsichtlich des Hämosideringehaltes ausgewertet und bezüglich einer möglichen differentialdiagnostischen Bedeutung in der Pädiatrie untersucht. Da in unserer Kontrollgruppe wesentlich weniger Hämosiderin nachweisbar war als bisher beschrieben, wurde ein neuer Hämosiderin-Score für pädiatrische Patienten erstellt. Ergebnisse: Weder bei Patienten mit pulmonaler Symptomatik auf dem Boden eines gastroösophagealen Refluxes, noch bei Patienten mit chronischen Lungenkrankheiten anderer Genese wurden erhöhte Hämosiderin-Werte festgestellt. Schlußfolgerung: Da bei Kindern erhöhte Hämosiderin-Score in Assoziation mit chronischen pulmonalen Erkrankungen nicht gefunden wurden, sind auch nur leicht erhöhte Hämosiderin- Scores als möglicher Hinweis auf eine ernste Systemerkrankung anzusehen. Fallbeispiel: Über ein Kleinkind mit idiopathischer pulmonaler Hämosiderose bei einer gastroösophagealen Refluxerkrankung wird berichtet.
Die AICD-Implantation ist heute Therapie der Wahl zur Behandlung von Tachyarrhythmien bei Hoch-Risiko- Patienten nach überlebtem Herztod (1,2). Bezüglich einer differenzierten AICD-Therapie ist es hierbei von großem Interesse, ob die zur Implantation führende Rhythmusstörung, also Kammerflimmern oder ventrikuläre Tachykardie, Aussagen über Art und Häufigkeit von Rezidiven zulassen. Hinsichtlich der Inzidenz von therapiebedürftigen Tachyarrhythmien zeigt sich in unserer Patientenpopulation kein Unterschied zwischen Patienten mit Kammerflimmern und solchen mit einer ventrikulären Tachykardie als primärem Rhythmusereignis. Bei der Unterscheidung dieser Patientenpopulation muß in Betracht gezogen werden, daß dem Kammerflimmern zwar oft eine (nicht-dokumentierte) degenerierte ventrikuläre Tachykardie vorausgeht, monomorphe ventrikuläre Tachykardien und Kammerflimmern aber ansonsten unterschiedliche elektrophysiologische Charakteristiken aufweisen. So zeigt die genaue Analyse der gespeicherten intrakardialen Elektrogramme und Therapien, daß es bei Patienten mit Kammerflimmern signifikant häufiger zu Schockabgaben bei Kammerflimmern kam. Sollten sich diese Daten in größeren Patientenpopulationen bestätigen, wäre zu überlegen, ob Patienten mit Kammerflimmern als primäres Rhythmusereignis mit den weniger komplexen und kostengünstigeren AICD ohne ATP-Funktion versorgt werden könnten. Der Vergleich der Patienten mit der kardialen Grunderkrankung KHK und DCM zeigt weder einen Unterschied in der primären Rhythmusstörung noch im weiteren klinischen Verlauf. Wie in zahlreichen klinischen Studien belegt, ist auch in unserer Population eine stark eingeschränkte linksventrikuläre Ejektionsfraktion < 35 % der stärkste positive Prädiktor für das Auftreten einer erneuten Rhythmusstörung. Zusammenfassend haben also für identifizierte Hoch-Risiko-Patienten nach überlebtem Herztod weder die primäre Tachyarrhythmie noch die zugrundeliegende Herzerkrankung einen prädiktiven Wert für die Inzidenz von Tachyarrhythmieepisoden. Patienten mit Kammerflimmern als primärem Rhythmusereignis scheinen jedoch weniger vom ATP zu profitieren.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
RT-PCR zur Detektion von HCV: Für die Diagnostik und für Untersuchungen zur Pathogenese des Hepatitis C Virus ist es notwendig, eine sensitive und reproduzierbare RT-PCR zur Verfügung zu haben. Die Austestung verschiedener PCR-Verfahren zeigte, daß der Einsatz einer One-Step-PCR für die Diagnose der HCV-PCR die besten Voraussetzungen in bezug auf die Sensitivität und das Risiko für Produktkontaminationen besitzt. Die RT-PCR zeigte bei der Durchführung mit verschiedenen Primern, welche innerhalb der 5'-NC-Region anlagerten, große Unterschiede in der Sensitivität, welche wahrscheinlich auf die Sekundärstruktur der 5'-NC-Region zurückzuführen sind. Um den Zusammenhang zwischen Virustiter und dem Krankheitsverlauf bzw. die in vitro Replikation von HCV zu untersuchen, wurde eine quantitative RT-PCR etabliert. Für die Generierung einer Standard-RNA wurde mit Hilfe der "site-directed mutagenesis" ein 25 Basen umfassender Bereich innerhalb der 5'-NC-Region des Hepatitis C Virus ausgetauscht. An die resultierende cDNA wurde durch die Amplifikation mit speziell konstruierten Oligonukleotiden eine T7-Promotor-Sequenz angehängt. Mit Hilfe der T7-Polymerase wurde die auf diese Weise konstruierte cDNA in RNA umgeschrieben. Die mit diesem RNAStandard durchgeführte PCR hat nicht, wie andere beschriebene quantitative RT-PCRMethoden, den Nachteil der Bildung von Heteroduplexstrukturen bzw. der bevorzugten Amphfikation kürzerer DNA-Fragmente, was zu einer Unter- oder Überschätzung der HCVRNA führen kann. Mit der hier etablierten quantitativen RT-PCR ist es möglich, zehn RNAMoleküle zu detektieren. Dies entspricht etwa 500 HCV-Molekülen pro ml Serum. Die Anwendung der quantitativen RT-PCR bei 32 Patienten mit chronischer Hepatitis C Infektion zeigte keinen Zusammenhang zwischen dem Virustiter und der Höhe der Transaminasen bzw. des klinischen Erscheinungsbildes. Die Viruskonzentration schwankte von 105 bis 109 HCV-RNA-Molekülen pro ml Serum. Bei Patienten unter Interferon-Therapie zeigte sich, daß das Absinken der Transaminasen nicht in allen Fallen mil einer Eliminierung derHCV-RNA im Serum korreliert. In vitro Replikation von HCV und Untersuchungen zur Tumorigenität: Für viele Untersuchungen zur Pathogenese insbesondere der Tumorigenese des Hepatitis C Virus ist es notwendig, ein in vitro Replikationssystem zu etablieren. Die Replikation von HCV konnte in den Zellinien Molt4, Raji, Huh7 bzw. in PBMLs, immortalisierten Hepatozyten und primären Hepatozyten nachgewiesen werden. Jedoch war die Viruskonzentration nur sehr gering, und das Virus nur sporadisch an einigen Tagen in den Zellen bzw. im Überstand zu detektieren. Die ausgetesteten Zellsysteme waren nicht ausreichend, um Untersuchungen zur Pathogenese des Hepatitis C Virus korrekt durchführen zu können. Der Einsatz von PEG bzw. von Lipoproteinen hatte keinen Einfluß auf die in vitro Replikation des Virus. Sequenzvergleiche zwischen HCV-Isolaten aus Tumorgewebe und Isolaten aus umgebendem "gesundem" Gewebe sollten Aufschluß über mögliche direkte Einflüsse des Hepatitis C Virus auf die Entstehung hepatozellulärer Karzinome geben. Sequenzvergleiche innerhalb der 5'-NC-Region des Hepatitis C Virus zeigten keine Unterschiede zwischen Virus-Isolaten aus Tumor- bzw. Peritumorgewebe. Anhand der direkten Sequenzierung eines Bereiches der NS5- Region konnte das Vorhandensein verschiedener HCV-Varianten im Tumor- und im Peritumorgewebe nachgewiesen werden. Durch Isolierung und Sequenzierung von Isolaten aus jeweils drei verschiedenen Bereichen des Tumors bzw. des Peritumors konnte gezeigt werden, daß es sich nicht um eine zufällige Verteilung von HCV-Varianten über das Lebergewebe handelt, sondern um Tumor- bzw. Peritumor-spezifische Varianten. Die aus dem Tumor isolierten HCV-Core-Sequenzen wiesen alle im Vergleich zur Peritumor- bzw. Serumsequenz Veränderungen auf. Die Tumorsequenzen besitzen Mutationen, die entweder zu einem Abbruch der Proteinsynthese nach 28 bzw. 41 Aminosäuren führen oder zu einem Verschieben des Leserasters und dadurch bedingt, zu einer veränderten Aminosäuresequenz nach 19 bzw. 51 Aminosäuren. In Transformationsexperimenten mit NIH/3T3- und Rat1-Zellen konnte gezeigt werden, dass drei der aus dem Tumor isolierten Sequenzen die Proliferation der Zellen beeinflussen können. So konnten mit diesen Sequenzen transfizierte Zellen in 0.5 % FCS-haltigem Medium wachsen. Keine der Sequenzen konnte im Nacktmausversuch die Entstehung von Tumoren induzieren.
Primäres Ziel dieser Arbeit war es, einen direkten Beweis für die Annahme zuerbringen, dass eine starke Intensitätsabhängigkeit der N1/P2- Komponente des AEPs und im besonderen des tangentialen Dipols durch eine erniedrigte serotoninerge Neurotransmission verursacht wird. Gleichzeitig konnte als klinisch relevanter Effekt die mögliche Verwendbarkeit der Intensitätsabhängigkeit als biologischer Marker für das Aktivitätsniveau des serotoninergen Systems getestet werden. Durch das Studiendesign wurde zusätzlich die Überprüfung des allgemein postulierten Zusammenhanges zwischen einer impulsiv-aggressiven Persönlichkeitsstruktur und einer hohen Intensitätsabhängigkeit evozierter Potentiale als Nebenziel ermöglicht. Mit Hilfe in ihrer Zusammensetzung verschiedener Aminosäure-Mischungen, die eineperiphere Tryptophandepletion herbeiführen, sollte eine verminderte zentrale serotoninerge Neurotransmission erzielt werden.Die Intensitätsabhängigkeit des AEPs an den Tagen mit verminderter Verfügbarkeit des einzigen Präkursors von Serotonin, der essentiellen Aminosäure Tryptophan, wurde im Vergleich zu einem Kontrolltag überprüft, an dem nur ein Placebo verabreicht worden war.Dazu wurden 13 gesunde Probanden (7w, 6m) im Alter von 24-32 Jahren nach ausführlicher psychologischer Erfassung ihrer Persönlichkeitsstruktur einemdoppelblinden, placebokontrolliertem Cross-over Studiendesign unterworfen, in dem jede Versuchsperson die Aminosäure-Mischung Young 50 bzw. 100 und Moja als Tryptophandepletionstest (TDT) neben einem Placebo erhielt. Die Intensitätsabhängigkeit des AEPs am Kontrolltag wurde mit den bei der Voruntersuchung erhobenen Persönlichkeitsmerkmalen in Zusammenhang gesetzt. Das Hauptergebnis dieser Arbeit war eine positive Korrelation der Plasmatryptophanspiegels mit der Intensitätsabhängigkeit des tangentialen Dipols des N1/P2-Komplexes (r=0,46; p<0,05).Dies steht im Widerspruch zu den bisher veröffentlichten Arbeiten zu diesem Thema. Ein Grund für dieses konträre Resultat mag eine durch den TDT nicht herbeigeführte Erniedrigung der zentralen serotoninergen transmissiven Aktivität sein. Zudem wurden die meisten anderen Untersuchungen an Patienten, bei denen eine Störung im serotoninergen System von vornherein angenommen worden war, vorgenommen, was einen Hauptunterschied zu dieser Studie, die mit gesunden Probanden durchgeführt worden war, darstellt. Und ob bei normalen Probanden eine Tryptophandepletion es vermag, eine Erniedrigung serotoninerger Neurotransmission zuverursachen, bleibt fraglich. Auch ist die Intensitätsabhängigkeit des AEPs wohl nicht ein rein spezifischer, sondernhöchstens ein relativ spezifischer Parameter für die zentrale Aktivität serotoninerger Neurone. Sie kann also auch von anderen Transmittersystemen mit beeinflusst sein. Mit der unterschiedlichen Ausprägung der Intensitätsabhängigkeit des AEPs in den Hemisphären liess sich allerdings ein weiteres Indiz für eine funktionelle Seitenasymmetrie in der Reizverarbeitung und wohl auch im serotoninergen Stoffwechsel finden. Aber auch das Ergebnis, dass die Intensitätsabha"ngigkeit des radialen und tangentialen Dipols teilweise hochsignifikant negativ mit als eher aggressiv und impulsiv zu beurteilenden Eigenschaften korrelierte, widerspricht den bisherigen Studienergebnissen, nach der eine hohe serotoninerge Neurotransmission generell inhibierend auf das Verhalten wirke, und somit Aggressivitä"t und Impulsivität beiPersonen mit hoher Intensitätsabhängigkeit evozierter Potentiale auftreten müsste. Zweifel, ob die Intensitätsabhängigkeit wirklich den geeigneten Parameter zur Beurteilung des Aktivitätsniveaus im serotoninerge System darstellt, lassen das Ergebnis weniger widersprüchlich erscheinen. Ebenso erfordert die Komplexität des Zusammenspiels vieler verschiedener Modulatoren wohl eine enger gefasste Fragestellung, die auch andere Transmittersysteme, wie etwa das noradrenerge und dopaminerge, und Hormone, wie Testosteron oder Cortisol, mit einschliesst. Eine Beteiligung des serotoninergen Transmittersystems bei der Beeinflussungaggressiven und impulsiven Verhaltens lässt sich jedoch aus der Beobachtung vermuten, dass die Veränderung der Intensitätsabhängigkeit durch den Tryptophandepletionstestsich bei verschieden Persönlichkeitstypen anders verhielten. Neugierverhalten und Impulsivität zeigten eine signifikant negative Korrelation, mit der depletionsabhängigen Steigungsänderung (DSA"), Schadensvermeidung dagegen eine signifikant positive. Die Auswirkungen des TDT auf die Befindlichkeit und das Verhalten derteilnehmenden Probanden waren Themen einer anderen Arbeit (Sadigorsky, in Vorbereitung), ebenso wie die neuropharmakologischen Aspekte der Tryptophandepletion (Kewitz, in Vorbereitung). Durch die hier vorgestellten Ergebnisse erfährt die Hoffnung, einen biologischen Marker für einen für die Genese vieler psychiatrischer Störungen wichtigen Neurotransmitter gefunden zu haben, der nicht invasiv ist und schnell Einzug in dieklinische Routinediagnostik halten könnte, leider keinen Rückhalt. Zu viele Zweifel bestehen an der Aussagekraft und Spezifität dieses Funktionsparameters.
Die Struktur der innenpolitischen Konflikte in Armenien seit 1988 stand und steht in hohem Maße unter dem Einfluß der geopolitisch schwierigen Lage des Landes. Vor allem in dem Konflikt um BergKarabach manifestiert(e) sich die entscheidende Einengung armenischer außenpolitischer Handlungsoptionen durch äußere Konstellationen.. Jenseits dessen beeinflußt dieser Konflikt auch das Verhältnis der armenischen politischen Akteure zu Rußland als Dritter Macht. Dies galt zunächst in besonderem Maße für die Konflikte zwischen der Kommunistischen Partei Armeniens und dem mainstream im Komitee ''Karabach und auch für die Konflikte innerhalb des Komitees ''Karabach bzw. dessen Nachfolgeorganisation, der AGB: Dem von Nora Dudwick konstatierten ''beeindruckenden Konsens stand die frühe Marginalisierung extrem antisowjetischer Kräfte wie etwa Parujr Hajrikjan ebenso wie die Ausgrenzung moskaufreundlicher armenischer Akteure wie Zorij Balajan oder Sil'va Kaputikjan gegenüber. Der Konflikt zwischen den unterschiedlichen politischen Konzepten, hier subsumiert unter dem Begriffspaar Realpolitik und Identitäts oder Prinzipienpolitik läßt sich gleichsam als Route auf der narrativen Landkarte' von Vernichtung und Gegenwehr verorten. Beide (gegensätzlichen) Entwürfe von Politik, die für sich in Anspruch nehmen, im Dienste des nationalen Interesses zu stehen, begreifen sich jeweils als einzig angemessene Reaktion auf Geschichte, mithin im Kern auf den narrativ verarbeiteten Genozid als Vernichtungserfahrung bzw. die damals für möglich (bzw. eben für unmöglich) gehaltene Gegenwehr. Das Konzept der Gegenwehr gegen erneute Verfolgung und Vernichtung ist somit das prinzipiell vereinende Motiv des armenischen Identitätsentwurfs. Wie jedoch dieser Entwurf unmittelbar in ein konsensuales nationales Interesse und damit in konkrete Politik umgesetzt werden kann, darüber scheiden sich die Meinungen. So steht dem Streben nach realpolitischem Ausgleich mit allen Nachbarn Armeniens ohne Verweis auf die Urheberschaft der Türkei am Genozid 1915, wie ihn die AGB fordert(e), die das Erinnerungsband und die damit verbundene armenische Identität betonende Vorstellung der ARF gegenüber, ohne vorherige Anerkennung des Genozids von 1915 keinen Ausgleich mit der Türkei anstreben zu können oder auch nur zu wollen. All diese internen Auseinandersetzungen um das armenische nationale Interesse fanden vor dem Hintergrund des durch die geopolitische Situation erzeugten Drucks statt, der in Gestalt des Kriegs um BergKarabach auf allen politischen Akteuren lag, und der die Existentialisierung der Wahrnehmung von Handlungsoptionen entscheidend verschärfte. Die tatsächliche Bedrohung von Außen erfuhr dabei eine eklatante Verschärfung durch die narrativen Wahrnehmungsprozesse im Innern, im Verlaufe derer das Motiv der Bedrohung prismatisch konzentriert wurde. Es ist konkret die Frage der Wahrnehmung gleichsam ''objektiver äußerer Strukturen, die die Zwangslage der Armenier nachhaltig verschärft. Auf diese Weise erscheinen in den Augen der Armenier einige Vorschläge zur Beilegung des Karabach Konflikts, wie sie in der Vergangenheit vorgelegt worden waren, eklatant an diesem prinzipiellen Problem vorbeigedacht. Als Beispiel dafür kann der sogenannte ''Goble Plan angesehen werden. Die Tatsache, daß die Ausprägung dessen, welche Handlung als im armenischen Nationalinteresse stehend wahrgenommen wurde, in der Diaspora und in Sowjetarmenien stark unterschiedliche Entwicklungen genommen hat, ließ im postsowjetischen Armenien nach dem Zusammentreffen beider Konzeptionen, prominent vertreten durch die AGB und die ARF, ein explosives Gemisch gegensätzlicher politischer Auffassungen um das Nationalinteresse zusammen mit von beiden Seiten vertretenem Ausschließlichkeitsanspruch entstehen. Hinzu kam, daß ihre Rückkehr nach Armenien die ARF zu einer Partei unter vielen anderen hatte werden lassen. Das jedoch war prinzipiell unvereinbar mit dem ihr eigenen Selbstverständnis, das davon ausging, daß die ARF die Verkörperung der nationalen Aspirationen der Armenier schlechthin sei. Zwar hatte die ARF in der Diaspora eine bestimmende Rolle, doch besaß sie, wie oben gezeigt, keineswegs das Monopol für politische Artikulation unter den Armeniern in der Diaspora. Die politischen Differenzen unter den DiasporaArmeniern fanden ebenfalls Eingang in die Struktur der politischen Auseinandersetzungen in der Republik Armenien: Die ''Situation wird noch dadurch kompliziert, daß alle Ideologien und Spaltungen unter den Armeniern im eigentlichen Armenien reproduziert werden. Die von der ARF favorisierte Option einer Protektion Armeniens durch die Sowjetunion bzw. Rußland als Dritter Macht entsprach, wie oben gezeigt, auch zu weiten Teilen des mainstreams der ersten Stunde der KarabachBewegung, die diese als Unterstützung der perestrojka Gorba!evs begriffen hatte. Zorij Balajan, früh marginalisierter Aktivist der ersten Stunde des Komitees ''Karabach, erwies in diesem Sinne dem Ersten Sekretär der KP der Armenischen SSR von 1976 bis 1988, Karen Demir!jan, seine Reverenz: ''Und doch muß man gerecht sein und einen Menschen nach den Gesetzen seiner Zeit beurteilen. Und Demir!jan nicht zu achten heißt, die eigene Geschichte nicht zu achten. Seit der Suspendierung der Tätigkeiten der ARF im Dezember 1994 haben sich die politischen Konflikte in Armenien erheblich verschärft. Anläßlich der Parlamentswahlen und des Verfassungsreferendums im Sommer 1995 etwa beschrieb der armenische Präsident Levon TerPetrosjan in düsteren Farben die Katastrophe, die seines Erachtens mit einem Wahlsieg der Opposition dem Lande drohen würde, und schloß seine Rede mit den Worten: ''Sie mögen den Eindruck gewinnen, daß ich die Realität in sehr dunklen Farben schildere, aber ich möchte ihnen versichern, daß die Wirklichkeit noch viel dunkler sein kann, noch viel monströser als ich Ihnen heute sagen kann. Wie dem auch sei, ich glaube an Ihre Weisheit, glaube, daß Sie Ihrer Zukunft nicht gleichgültig gegenüberstehen, einer Zukunft, deren Aufbau Ihnen selbst obliegt. Die Existenz unseres Landes, die Sicherheit Ihrer Kinder, alles hängt ab von Ihren Entscheidungen. Und ich bin sicher, daß Sie ein entschiedenes NEIN all jenen Opportunisten und Abenteurern entgegnen, die persönliche Fragen mit dem Blut Ihrer Kinder zu beantworten trachten. Ich bin sicher, daß Sie einstimmig JA zur Verfassung sagen und für den Block Hanrapetutjun' votieren. Ihre Sicherheit, Ihr Wohlstand und der Friede, alles hängt von dieser Entscheidung ab. Auch im Vorfeld der Präsidentschaftswahlen im September 1996 warnte Levon Ter Petrosjan vor ''Faschismus, Tyrannei und Chaos im Falle des Wahlsiegs eines oppositionellen Kandidaten. Im Verlaufe des Jahres 1997 jedoch ließen verschiedene Signale der Konzilianz gegenüber der Opposition den Eindruck entstehen, daß die AGBRegierung und Präsident TerPetrosjan eine konsensualere Politik nach Innen verfolgen würden, möglicherweise auch, um in der Außenpolitik größere Handlungsfähigkeit zu gewinnen. So wurde etwa Robert Ko!arjan, der ehemalige Präsident der nicht anerkannten Republik BergKarabach, zum Premierminister der Republik Armenien, und Suren Zoljan, leitendes Mitglied der oppositionellen WissenschaftlichIndustriellen und Bürgerunion, zum Leiter des renommierten BrjusovInstituts in Erevan ernannt. Ihren Anfang hatte diese Politik des versuchten Ausgleichs mit der Opposition mit der engen Kooperation der armenischen Regierung mit der armenischen Kirche genommen. 1995 wurde der Katholikos von Kilikien zum Katholikos Aller Armenier, Garegin I., gewählt. Der armenische Präsident hatte mit großem Nachdruck die Wahl Garegins unterstützt, obwohl man dem Katholikat von Kilikien eine große Nähe zur ARF nachsagt. Dieser Versuch eines Brückenschlags zu den Teilen der Diaspora, die der armenischen Regierung feindlich gesonnen waren, hat jedoch weder TerPetrosjan, noch dem neugewählten Katholikos ausschließlich Wohlwollen eingebracht. Daß die Spaltung der Diaspora noch lange nicht überwunden ist, zeigte sich dann auch einmal mehr, als Garegin I. gemeinsam mit Papst Johannes Paul II. eine Erklärung unterzeichnete, daß die theologischen Differenzen zwischen beiden Kirchen hinsichtlich der Natur Jesu Christi nicht mehr Gegenstand von Konflikten werden sollten. Für diese Erklärung wurde Garegin I. von hochrangigen armenischen Kirchenvertretern aus der Diaspora heftig angegriffen, die ihm das Recht absprachen, eine solche Erklärung im Namen der armenischen Kirche abzugeben. Die Nagelprobe muß alle Politik der Konsensualisierung oder der Konfrontation jedoch in der KarabachFrage bestehen. Letztlich determiniert der Konflikt um Berg Karabach nach wie vor die armenische Außenpolitik über alle Maßen. So verkündete etwa der ehemalige armenische Außenminister Vahan Papazjan, sollte der Bevölkerung in BergKarabach ein Genozid oder die Deportation drohen, die Republik Armenien zum militärischen Eingreifen in BergKarabach bereit sei. Auf dem OSZEGipfel in Lissabon im Sommer 1997 hatte Levon TerPetrosjan den Versuch unternommen, den Schulterschluß mit der Gesellschaft in Armenien zu schaffen. Hartnäckig weigerte er sich, das Schlußdokument zu unterzeichnen, in dem hinsichtlich des Konflikts um BergKarabach festgehalten werden sollte, daß jede Regelung des Konflikts vom Recht der Republik Azerbajd.an auf territoriale Integrität ausgehen müsse. Mit seiner Weigerung geriet er jedoch unter erheblichen Druck von Seiten der internationalen Gemeinschaft (OSZE, UN, IBRD etc.) wegen dieses ''Rückfalls in die (Sowjet) Zeit, als der Oberste Sowjet Armeniens die Vereinigung BergKarabachs mit Sowjetarmenien beschlossen und damit das Recht der Azerbajd.anischen SSR auf territoriale Integrität verletzt hatte. Lissabon war der Versuch, sich bei der Opposition als harter Verfechter des Rechts BergKarabachs auf Selbstbestimmung zu profilieren. Auch dem außenpolitischen Druck in der Folge von Lissabon mag es geschuldet sein, daß der armenische Präsident im September 1997 eine Pressekonferenz gab, auf der er das von der im KarabachKonflikt vermittelnden Minsker Gruppe der OSZE vorgeschlagene Phasenmodell akzeptierte, bei dem die Tendenz stark in Richtung einer prinzipiellen Akzeptanz azerbajd.anischer zumindest völkerrechtlicher Hoheit über BergKarabach geht. Für dieses ''Einknicken wurde er von zahlreichen armenischen Intellektuellen und ehemaligen Mitstreitern im Komitee ''Karabach scharf kritisiert, die ihm erneut Verrat an den armenischen nationalen Interessen vorwarfen. Für die Opposition ist Levon Ter Petrosjans Schwenk ein Rückfall hinter den Status vom Februar 1988, als der Gebietssowjet von BergKarabach erstmals seinen Wunsch nach Austritt aus dem Staatsverbund Azerbajd.ans bekundet hatte. Mit einem solchen Schritt würden, so die Vorwürfe, alle Pfände, die BergKarabach im Laufe des Krieges gewonnen hätte, die Sicherheit und die Stabilität mit einem Schlag wieder zunichte gemacht. Die innerarmenischen Diskussionen um die KarabachFrage verschärften sich im Winter 1997/98 erneut, als die Minsker Gruppe der OSZE in Gestalt ihres DreierCo Vorsitzes von Frankreich, den U.S.A. und der Rußländischen Föderation um die Zeit des OSZEGipfels in Kopenhagen eine neue Verhandlungsoffensive ankündigte. Hinzu kam, daß die Kompromißbereitschaft Levon TerPetrosjans nicht nur von der innerarmenischen Opposition kritisiert wurde, sondern auch von der karabach armenischen Regierung unter ihrem Präsidenten Arkadij Ghukasjan, der den Ausverkauf karabacher Interessen durch die Regierung Armeniens zu befürchten schien. Damit befindet sich die armenische Regierung und Präsident TerPetrosjan in einer Zwangslage zwischen starkem außenpolitischen Druck in Richtung von Konzessionen in der KarabachFrage, und massivem Druck von Seiten der innerarmenischen Opposition und der karabacharmenischen Regierung, die eine konziliante Haltung vehement ablehnen. Es ist vor allem diese Pattsituation in der KarabachFrage, die alles in allem die Entwicklung regionaler Interaktionsstrukturen behindert, die für den Transkaukasus und damit auch Armenien dringend notwendige Modernisierungspotentiale mit sich brächten und langfristig mit einer Stärkung der Eigenstaatlichkeit einhergingen. Das vorerst letzte Kapitel innerarmenischer Auseinandersetzungen um die KarabachFrage ist die Eskalation der Konflikte innerhalb der AGB. Gegenstand der innerparteilichen Auseinandersetzungen ist wieder das KarabachProblem bzw. die Frage, welche Haltung zu den Kompromißvorschlägen der OSZE in der Konfliktvermittlung einzunehmen sei. Es zeichnet sich hier eine Spaltung in eher kompromißbereite und eher unnachgiebige Kräfte auch in der AGB ab. Es ist vor allem die Heftigkeit, mit der der Konflikt ausgetragen wird, die ein weiteres Mal den Absolutheitsanspruch widerspiegelt, mit dem die unterschiedlichen Entwürfe des vitalen armenischen Nationalinteresses, in dessen Dienst zu stehen, die Antagonisten für sich in Anspruch nehmen, aufeinanderprallen.
Die chilenische Geschichte ist seit der Unabhängigkeit von Spanien von einer für lateinamerikanische Verhältnisse ungewöhnlichen Dialogtradition gekennzeichnet. Die chilenischen Lehrer und ihre Organisationen spielten in dieser Dialogtradition eine besondere Rolle. Sie trugen zur Begründung dieser Tradition bei, waren ein bewußter Teil der Mittelschicht, der die Rolle der gesellschaftlichen Vermittlung zwischen den widerstreitenden Interessen des agroindustriellen Bürgertums und der Arbeiterbewegung zukam, und sie vertraten diesen Historischen Kompromiß in Schulen und Bildungszentren. Die chilenische Verfassung von 1925 ist ein Beispiel für diese Dialogtradition. Sie ist das Ergebnis einer gelungenen Konsenssuche und etabliert diesen Konsens für fast ein halbes Jahrhundert. Die chilenische Lehrerorganisation hat eine wichtige Rolle bei der Formulierung dieser Verfassung gespielt. Durch die Verfassung wurde es möglich, daß viele gremialistische, gewerkschaftliche und kooperative Gruppierungen sich parteiförmig organisierten und ihre Partialinteressen gesamtgesellschaftlich einbrachten. Die Verfassung von 1925 wies dem Staat die Rolle zu, soziale Sicherheiten zu garantieren und die Entwicklung des Landes voranzutreiben. Besonders die allgemeine Schulpflicht gehörte zu diesen Neuerungen. Den Lehrern und ihren Organisationen kam durch ihre Beteiligung an der Verfassung und die Verbreiterung des Bildungswesens die Rolle eines gesellschaftlichen Subjektes zu. Sie waren im Sinne Gramscis "organische Intellektuelle". Von 1925 bis zum Militärputsch von 1973 prägte die Mittelklasse die chilenische Gesellschaft. Die "Kultur der Mittelklasse" (G. Vial) wurde zur vorherrschenden Kultur. Die Lehrer waren in dieser Zeit Protagonisten der gesellschaftlichen Entwicklung und wurden zu gesellschaftlichen Vermittlern mit "anerkannten Fähigkeiten", 90 wenn es um die großen Erziehungsprobleme Chiles ging. Eine wichtige Etappe in diesem Prozeß war die Erziehungsreform von 1928. Die chilenischen Lehrer waren auf diese Aufgabe dadurch vorbereitet, daß sie den unterschiedlichsten philosophischen und politischen Strömungen (Agnostiker, Christen, Freimaurer und Marxisten) angehörten. 90 Episcopado chileno, Reforma educacional, Julio, 1981,S. 371 Seit der zweiten Hälfte der zwanzigsten Jahrhunderts gewann die marxistische Linke vor allem die Sozialisten und Kommunisten, die seit den zwanziger Jahren im Parlament vertreten waren unter den chilenischen Lehrern an Einfluß. Der Einfluß der bis dahin vorherrschenden Radikalen Partei schwand, und an deren Stelle trat die christdemokratische Partei. In dieser Situation entstand die Lehrergewerkschaft SUTE. Die SUTE setzte sich für eine neue Erziehungsreform ein, in deren Zentrum das Konzept einer "Nationalen Einheitsschule" (Escuela Nacionál Unificada, ENU) stand. Neben einer besseren Vermittlung von Theorie und Praxis sollte diese Schule den "neuen Menschen" in einer sozialistischen Gesellschaft schaffen. Die Kampagne für die ENU traf auf den geeinten Widerstand der katholischen Kirche und der rechten Parteien und Organisationen Chiles. Der sozialistische Präsident Allende, der in der Tradition konsensualer Vermittlung stand, gab unter diesem Druck das Reformprojekt auf. Der Militärputsch von 1973 brach mit der chilenische Dialogtradition. Die Lehrer verloren unter Pinochet fast alles, was sie bis dahin erreicht hatten, vor allem aber die Möglichkeit, an Entscheidungen in Fragen der Erziehungspolitik teilzunehmen. Namhafte Wissenschaftler und viele qualifizierte Lehrer wurden aus politischen Gründen entlassen, wenn nicht gar verhaftet oder ins Exil gezwungen. Die Schulen wurden privatisiert oder in kommunale Trägerschaft überführt. Die pädagogischen Hochschulen wurden in die Universitäten integriert, ein Schritt, der auf gespaltene Ressonanz stieß. Ein Teil der Lehrer sah darin eine Aufwertung des Erzieherberufs, andere hingegen die Zerstörung des traditionellen Ausbildungswesens der Lehrerschaft. Die Militärregierung löste den SUTE auf und ersetze ihn durch das Colegio de Profesores, das auf der Seite der Militärs stand. Ein von der Regierung erlassenes Anstellungsstatut verschlechterte mittelfristig die Situation der Lehrer. Sie waren durch diesen Statut und durch die Privatisierung und Kommunalisierung nun nicht mehr dem Erziehungsministerium, sondern oft nichtpädagogischen Chefs wie Bürgermeistern und privaten Schulträgern und unternehmern zugeordnet, die sich oft wie "kleine Diktatoren" (Schulak) benahmen. Inmitten einer Periode völliger gesellschaftlicher Immobilität, die nach dem gewaltsamen Putsch eingetreten war, bildeten sich erste Oppositionsgruppen innerhalb des Colegio de Profesores und, alternativ dazu, die Lehrergewerkschaft AGECH (Asociación Gremial de Educadores de Chile). Die Wahlen zum Colegio de Profesores 1985 und die Opposition der AGECH spielten eine wesentliche Rolle bei der breiten Opposition gegen das Militärregime, die 1983 begann. Die chilenischen Lehrer und ihre Organisationen waren neben der Menschenrechtsbewegung diejenige Gruppierung, die den Minderheitenkonsens der Pinochetregierung, der aus dem negativen Konsens der militärischen Elite hervorgegangenen war, in einer Weise herausforderte, die die Streitkräfte zwang, in eine Dialogpolitik einzutreten, die schließlich zum Übergang zur Demokratie (transición) führte.
In dieser Arbeit konnten erstmals differentielle Ionisationswirkungsquerschnitte für Antimaterie-Materie-Stöße gemessen werden. Mit Hilfe der COLd Target Recoil Ion Momentum Spectroscopy (COLTRIMS) wurden die Stoßsysteme p± + He ® p± + He+1 + ebei einer Einschußenergie von etwa 1 MeV untersucht. Die experimentellen Ergebnisse für die Einfachionisation von Helium durch Antiprotonenstöße werden mit denen für Protonenstöße verglichen. Dies erlaubt den Stoßmechanismus in Abhängigkeit von der Richtung der störenden Kraft zu studieren. Als Ergebniss konnte die Post-Collision-Interaction (PCI) in der longitudinalen Richtung des Stoßes (Projektilrichtung) quantitativ bestimmt werden. Trotz der großen experimentellen Schwierigkeiten (hochenergetischer Antiprotonenstrahl, geringer Antiprotonenstrom, große Strahldivergenz und Strahlungsuntergrund durch Antiprotonenzerfall) konnten absolute die Wirkungsquerschnitte in Abhängigkeit vom Longitudinalimpuls gemessen werden. Innerhalb der experimentellen Fehler zeigen die Longitudinalimpulsverteilungen keine Abhängigkeit vom Projektilvorzeichen. Die folgende Tabelle faßt die mittleren Impulse des Elektrons und des Rückstoßions für Antiprotonen- und Protonenstöße zusammen Rückstoßion Elektron Antiproton 0.07±0.045 a.u. 0.087±0.039 a.u. Proton 0.075±0.025 a.u. 0.075±0.007 a.u. Die Tabelle zeigt, daß nach dem Stoß die Elektronen in beiden Stoßsystemen etwas nach vorne emittiert werden. Das steht im Widerspruch zu den theoretischen Vorhersagen, wonach erwartet wird, daß die Elektronen im Protonenstoß etwas nach „vorne“ und im Antiprotonenstoß etwas nach „hinten“ emittiert werden. Das Rückstoßion agiert in beiden Systemen als Beobachter. Dies widerspricht ebenfalls den Vorhersagen, wonach erwartet wird, daß das Rückstoßion im Protonenstoß etwas nach hinten und im Antiprotonenstoß etwas nach vorne emittiert wird. Die experimentellen Ergebnisse zeigen eine bessere Übereinstimmung mit den Continuum-Distorted-Wave (CDW) Rechnungen als mit den Classical- Trajectory-Monte-Carlo (CTMC) Rechnungen. Im Vergleich zur Stößen mit schnellen hochgeladenen Ionen zeigen die Daten dieser Arbeit, daß die Elektronen die Impulsverluste des Projektils kompensieren, während in hochgeladenen Ion-Atom-Stöße die Rückstoßionen den Impuls der Elektronen kompensieren.
Modalität in der Musik Ruggiero Giovannellis (ca. 1555 - 1625) : zur Geschichte der Tonarten um 1600
(1998)
Die Arbeit untersucht am Beispiel der Kompositionen des Palestrinaschülers Ruggiero Giovannelli die Entwicklung der Kompositionstechnik um 1600 in Italien. Im Zentrum steht die Frage der Tonarten, insbesondere der Entwicklung der Modalität am Übergang von prima zur seconda prattica. Die offenkundige Diskrepanz zwischen der Bedeutung der Modi in der Musik um 1600 und der nachgerückten Bedeutung, die ihnen in wissenschaftlichen Arbeiten zuerkannt wird, ist der Ausgangspunkt, um am Beispiel Ruggiero Giovannellis ein Analysemodell für modal begründete Musik an ausgewählten Werken zu erproben. Zugleich wird eine historische Perspektive modaler Änderungen in einer Zeit beschleunigten musikalischen Wandels aufgezeigt. In detaillierten Analysen wird gezeigt, inwieweit sich in der Musik Giovannellis die satztechnische Tradition der römischen Schule in ihrer modalen Anlage an die Erfordernisse der affektgerichteten Monodie angepasst hat. Auf der Grundlage der theoretischen Arbeiten Bernhard Meiers wird gezeigt, wie Modalität als satztechnische Grundlage in zeitlicher, regionaler und individueller Ausprägung in der Musik um 1600 konkret realisiert wird. Die Arbeit zeigt die Möglichkeiten und Grenzen der Herausforderungen der Neuerungen des Stile moderno an die modalen Grundlagen der Musik, welche sich den neuen satztechnischen Erfordernissen nur begrenzt anpassen konnte. Unter diesem Aspekt einer Entwicklungsgeschichte der Modalität eignet sich Giovannelli als Anschauungsobjekt in vielfältiger Perspektive. Er war Kapellmeister und Sänger an den wichtigsten kirchlichen Institutionen Roms und gleichzeitig in vielfältigem Kontakt mit weltlichen Kreisen. Sein Œuvre umfasst die zentralen weltlichen und geistlichen Gattungen und Stile seiner Zeit: unterschiedlich besetzte Madrigale, Villanellen, Kanzonetten, Motetten und Messen, Mehrchörigkeit findet sich neben generalbassbegleiteter Monodie. Durch seine enge Bindung an Palestrina sowie durch ausgedehnte Aufenthalte in Nord¬italien war er mit allen zeitgenössischen Stilen vertraut. Eine weiterer Aspekt der Arbeit befasst sich mit der Frage, inwieweit der Prozess der Autonomisierung des textlichen Affektgehalts im strengen Satz und die Integration neuer stilistischer Elemente einen Einfluss der römischen Schule auf die Kompositionstechnik in Norditalien (greifbar etwa an der Entwicklung der Mehrchörigkeit in Venedig) gehabt hat. In der Zeit eines beschleunigten historischen Wandels wirkte Ruggiero Giovannelli als behutsamer Erneuerer des Überlieferten. Während er die traditionellen Gattungen Madrigal und Motette auf der Basis der bestehenden musiktheoretischen Maxime weiterentwickelte, brachen andernorts Komponisten radikaler und nachhaltiger mit den bis dahin gültigen Grundlagen der musikalischen Komposition. Ruggiero Giovannelli stand für einen kurzen historischen Augenblick im Rampenlicht dieses Wandlungsprozesses. Er gestaltete die Reform der auf dem Höhepunkt ihrer Entwicklung angekommenen Gattung Madrigal mit, indem er das Moment des Klanglichen und des Linear-melodischen auf der Basis des Kontrapunkts neu interpretierte. Neben der Verwendung eingängiger, von den Zeitgenossen mit dem Prädikat der Leichtigkeit belegten Soggetti war es vor allem das Schaffen formaler Bezüge, die Verwendung von aus populären Gattungen wie Kanzonette und Villanella übernommener Elemente und das Einfügen von durch ihn häufig verwendeter musikalischer Topoi in die unterschiedliche Werke, womit Giovannelli den Geschmack seiner Zeit traf. In seinen Motetten differenziert Giovannelli deutlich nach Besetzung und Aufführungsanlass. Klanglich opulenter, homophon konzipierter Mehrchörigkeit stehen streng kontrapunktisch strukturierte Kompositionen gegenüber. Allen geistlichen Werken liegt jedoch das unmodifizierte Regelwerk der Modi zugrunde, deren Gültigkeit in der auch schon bei Palestrina angewendeten Form von Giovannelli niemals in Frage gestellt wird. Giovannellis Musik ist immer modal konzipiert, wobei sich der Modus traditionell in der Gestaltung der Soggetti und der formalen Anlage einer Komposition ausdrückt. So liegen die Veränderungen gegenüber seinen Vorgängern im Detail. Die Einbindung des modalen Spiels in ein formales Gesamtkonzept ist eines davon, die Verwendung der Modi und der mit ihnen verbundenen Klanglage nach den Anforderungen der Besetzung ein anderes. Die Arbeit umfasst neben dem Textteil ein vollständiges Werkverzeichnis mit Quellenangaben sowie druckfähige Übertragungen der meisten Werke Giovannellis (4 Bände).
Im Rahmen der vorliegenden Arbeit wurden am Schwerionensynchrotron (SIS) der Gesellschaft für Schwerionenforschung/Darmstadt (GSI) Untersuchungen zur Produktion geladener K-Mesonen in Kohlenstoff induzierten Schwerionenreaktionen durchgeführt. Im Energiebereich von 1 bis 2 AGeV wurden dazu spektrale Verteilungen von Pionen, Kaonen und Antikaonen aus Kernreaktionen der Stoßsysteme C + C und C + Au unter verschiedenen Laborwinkelbereichen mit dem Kaon-Spektrometer (KaoS) aufgenommen. Da es sich um Kaonproduktion unterhalb der Nukleon-Nukleon-Schwelle handelt, spielen Eigenschaften der Kernmaterie eine Rolle, die Gegenstand dieser Arbeit sind. Sowohl für Kaonen als auch für Antikaonen wurde eine polare Anisotropie der Winkelverteilung festgestellt. Die unter verschiedenen Laborwinkelbereichen aufgenommenen K+- -Spektren decken im Schwerpunktsystem einen Winkelbereich von 60 Grad < Theta CM < 150 Grad ab und lassen sich gut durch eine Winkelverteilung der Form sigma inv alpha (1 + a2 cos exp 2 Theta CM) beschreiben. Im Rahmen der Meßgenauigkeit konnte keine Abhängigkeit der polaren Anisotropie von der kinetischen Energie der Kaonen und Antikaonen festgestellt werden. Es lässt sich jedoch zeigen, dass es von der Einschussenergie abhängig eine Winkeleinstellung gibt, bei der der totale Wirkungsquerschnitt vom Anisotropieparameter a2 unabhängig bestimmt werden kann, wenn die oben angegebene Parametrisierung der wahren Winkelverteilung genügt. Die Anregungsfunktion sigma K+- (E Beam) für Antikaonen ist steiler als die für Kaonen, jedoch lassen sich beide Produktionswirkungsquerschnitte als Funktion der Differenz aus der pro Nukleon normierten Gesamtenergie und der Energie an der NN-Schwelle durch sigma K alpha (mK + sqrt s - sqrt s th) beschreiben. Es konnte gezeigt werden, dass sich dieses identische Verhalten der derart auf die Excess-Energie korrigierten Kaon- und Antikaonproduktion jedoch nicht nur in den totalen Wirkungsquerschnitten, sondern auch in der Form der spektralen Verteilungen widerspiegelt. Ebenso scheinen die pro Partizipant normierten K+- -Multiplizitäten bei gleicher Excess-Energie gleichermaßen stark von der Größe des Stoßsystems abzuhängen. Das etwa um einen Faktor 10 erhöhte K-/K+-Verhältnis im Vergleich zur K+- -Produktion in Proton-Proton-Stößen konnte nicht durch triviale Mediumeffekte wie Absorption oder sequentielle Mehrfachstöße erklärt werden. Dies kann als Hinweis auf eine eventuelle Modifikation der effektiven K+- -Massen in dichter Materie verstanden werden, wie sie die theoretische Hadronenphysik auf der Basis von QCD und chiraler Störungstheorie vorhersagt. Das benutzte relativistische RBUU-Modell kann die gemessenen Kaon- und Antikaonverteilungen nur unter der Annahme solcher Massenmodifikationen erklären. Die K- -Massenmodifikation hat interessante Konsequenzen für die Astrophysik und stellt somit eine Verbindung zu einem weiteren faszinierenden Teilgebiet der modernen Physik dar. Aufgrund der K- -Massenmodifikation erwarten G. E. Brown und H. A. Bethe ein Kaonkondensat in Neutronensternen ab einer Dichte von rho ~ 3 rho 0. Dies limitiert die Masse von Neutronensternen auf etwa 1.5 M ?. Für Supernovaüberreste von mehr als 1.5 M ?. erwarten sie die Bildung von schwarzen Löchern. Für das asymmetrische Stoßsystem 12C + 197 Au kann das Schwerpunktsystem nur berechnet werden, wenn z. B. mit dem geometrischen Modell mittlere Projektil- und Targetpartizipantenanzahlen (< A Projectile part >= 6 bzw. < A Target part >= 16 ) angenommen werden. Die damit ermittelten Wirkungsquerschnitte deuten auf eine stärkere polare Anisotropie als für das 12C + 12C-System hin. Wird aus der in symmetrischen Stößen gemessenen Abhängigkeit der K+- -Produktion von der Systemgröße die Anzahl der Partizipanten im 12C + 197Au-System ermittelt, so stimmt diese für K+ mit den Vorhersagen des geometrischen Modells in etwa überein, für K- werden hingegen nur halbsoviel Partizipanten ermittelt. Dies deutet auf eine starke K- -Absorption in der Targetspektatormaterie hin. Abschließend sei noch angemerk, dass die KaoS-Kollaboration bereits weitere Messungen zur K+- -Produktion in den Stoßsystemen Ni+Ni und Au+Au sowie in asymmetrische, protoninduzierten p + A Reaktionen durchgefüuhrt hat. Nach dem innerhalb der nächsten zwei Jahre zu erwartenden Abschluss der Analyse dieser Daten liegt somit eine systematische Studie der K+- -Produktion unterhalb der NN-Schwelle vor, die einen maßgeblichen Beitrag zum Studium der Eigenschaften von Hadronen in dichter Kernmaterie und zum Verhalten von Kernmaterie unter extremen Bedingungen liefern wird.
Die vorliegende Arbeit vereint das Material von 54 Gräbern des bronzezeitlichen Tamassos, die in einem Zeitraum von 1889 bis 1995 ausgegraben wurden. Es ist daher verständlich, daß die verwertbaren Befunde heute qualitativ und quantitativ disparat vorliegen. Die Methodik der Ausgrabungen und die Art der schriftlichen Aufzeichnungen über diese Feldarbeit, die Auswahlkriterien für das Aufbewahren von Funden und deren überlieferte Beschreibung, die Grundlagen der Fundteilung sowie die Verwahrung und Registrierung des Fundgutes – all diese für die archäologische Arbeit grundlegenden Faktoren haben in den letzten einhundert Jahren wesentliche Veränderungen erfahren. Insofern war es notwendig, auf der Grundlage der verwertbaren Informationen möglichst einheitliche Prinzipien für die Darstellung der einzelnen Grabungsbefunde zu schaffen. Dieses Vorhaben ist nicht immer vollständig durchzuführen, da uns für die Ausgrabungen der Jahre 1889 und 1894 viele Informationen nicht mehr verfügbar sind. Ohnehin hat der Erstausgräber M. Ohnefalsch–Richter in diesen Jahren wesentliche Veränderungen bei seiner Fundaufnahme und Dokumentation vollzogen. Der heute erreichbare Erkenntnisstand ist ganz besonders davon abhängig, wohin die Objekte nach der Fundteilung gelangten, ob sie dort überhaupt als archäologischer Besitz aufbewahrt oder verschenkt bzw. verkauft wurden. Es ist außerdem nicht unwesentlich, wie die Sammlungen von Kypriaka in Deutschland durch die Wirren des zweiten Weltkrieges gebracht wurden. Schließlich ist von großer Bedeutung, welche schriftlichen Zeugnisse des Erstausgräbers, die sämtlich schon als Kriegsverlust galten, heute noch erreichbar oder rekonstruierbar sind. Diese Promotionsschrift wird in den nächsten Jahren in Zusammenarbeit mit H.–G. Buchholz zu einer eigenständigen Veröffentlichung der Prähistorie von Tamassos ausgebaut. Die vorliegende Teil faßt die bisher unpublizierten Funde des für die mittlere Bronzezeit zentralen Bereichs Tamassos–Lambertis incl. des westlichen Dorfrandes von Politiko zusammen, während die ebenfalls bemerkenswerten Nekropolen in den Gemarken Troulia und Kamara sowie die riesige spätkyprische Nekropole jenseits des Pediaios–Flusses der späteren Publikation überlassen bleiben. Dabei wird nur das Material bearbeitet, das mit einer gewissen Sicherheit einem bestimmten Grab zugewiesen werden kann.
Der Eisenbahngüterverkehr verliert weiterhin Marktanteile an den Straßengüterverkehr. Dies ist nicht nur eine Folge der Tatsache, daß sich die geringeren externen Effekte der Bahn nicht genügend "auszahlen", die Bahn weist bei ihrer jetzigen Betriebsweise auch systembedingte Nachteile auf. Für den immer bedeutsameren Transport von Nicht-Massengütern in kleinen Mengen ist wohl der LKW als wesentlich kleinere Einheit als der Eisenbahnzug geeigneter. Eine Möglichkeit für die Bahn, diesem Problem zu begegnen, besteht in der Einführung einer neuen Transporttechnologie, die auf einzeln angetriebenen Güterwagen basiert, die ohne Fahrer automatisch gesteuert ihren Weg vom Start- zum Zielort selbsttätig finden. Die gesellschaftliche Erwünschtheit von mehr Schienengüterverkehr wird zu einem Gutteil mit der größeren Umweltfreundlichkeit, den geringeren externen Effekten der Eisenbahn begründet. Ob allerdings dieser Vorteil der Bahn erhalten bleibt, wenn versucht wird, die Vorteile eines dezentral gesteuerten automatischen Fahrens zu realisieren, stand bisher nicht fest. Die Arbeit untersucht diese Fragestellung durch die Rückführung externer Effekte auf naturwissenschaftlich-technische Grundlagen und kommt zu dem Ergebnis, daß 1. externe Nutzen in nennenswertem Umfang nicht einzuberechnen sind - weder im üblichen Sinne als statische technologische externe Effekte noch unter Berücksichtigung evolutionärer, dynamischer Aspekte; daß weiterhin 2. eine Einführung eines automatisierten und dezentralisierten Eisenbahngüterverkehrs eine deutliche Reduzierung der externen Effekte des Verkehrs erwarten läßt, und daß dabei 3. die Luftverschmutzung durch Abgase etwa "in der Mitte" zwischen heutigem Straßen- und Schienenverkehr liegt, Stau- und Unfallkosten jedoch im wesentlichen weiterhin den günstigeren Werten der Bahn entsprechen. Die Arbeit zeigt insgesamt, daß entgegen der ursprünglichen Befürchtung die externen Kosten eines automatisierten und dezentralisierten Schienengüterverkehrs dicht bei denen der bisherigen Bahn liegen. Trotzdem sind externe Kosten zu internalisieren, wo dies möglich scheint - nicht zuletzt, weil Ausmaß und Richtung des technischen Fortschritts durch Signale über die wirklichen Knappheiten gelenkt werden müssen. Die praktische Durchführbarkeit eines Schienengütertransports mit dezentral gesteuerten fahrerlosen Gütertriebwagen müßte in einem nächsten Schritt in der Praxis erprobt werden, weiterer Forschungsbedarf bleibt auch bei der Frage der Unfallsicherheit eines solchen Systems bestehen.
Die Wahrnehmung unterschiedlicher Tonhöhen ist entscheidend für die Funktion von Cochleaimplantaten bei gehörlosen Patienten. Eine Möglichkeit der Frequenzcodierung bei diesen Implantaten besteht in der elektrischen Reizung verschiedener Positionen in der Cochlea. In Hinblick auf die Implantation angeboren gehörloser Kinder stellt sich die Frage, ob auch ein naiver Cortex cochleotop gegliedert ist. Besteht die Notwendigkeit, die neuronalen Netze erst durch akustische Stimuli zu trainieren, oder ist die Ausbildung einer corticalen Tonotopie auch ohne akustische Reize möglich? Dies wurde modellhaft an kongenital gehörlosen weißen Katzen untersucht, die keinerlei Hörerfahrung besaßen. Diesen Katzen wurde unter Narkose ein humaner Reizelektrodensatz (Nucleus 22) durch das runde Fenster in die Scala tympani eingesetzt. Der Hörnerv wurde durch biphasische elektrische Impulse (200 Mikrosek. pro Phase) stimuliert. Die Reizorte in der Cochlea entsprachen bei normal hörenden Katzen apikal ungefähr 8 kHz (Implantatringe 1 und 2) und basal ungefähr 20 kHz (Ringe 7 und 8). Auf dem primären auditorischen Cortex (AI) wurden an verschiedenen Stellen mit Hilfe von Silber-Mehrfachelektroden Oberflächenpotentiale abgeleitet. Mit Hilfe selbstentwickelter Computerprogramme wurden Intensitätsfunktionen auf Basis der corticalen evozierten Potentiale mittlerer Latenz erstellt und an Sättigungsfunktionen angepaßt. Maxima und Dynamikbereiche wurden in Abhängigkeit von Cochleareizort und Cortexposition bestimmt. Ebenso wurden die Latenzen der Antworten gemessen und Schwellenfunktionen errechnet. Gehörlose weiße Katzen zeigten in akuten Versuchen bei elektrischer Reizung des Hörnervs corticale evozierte Potentiale, die in Aussehen und Latenz mit akustisch evozierten Potentialen normal hörender Katzen vergleichbar waren. Auf dem primären auditorischen Cortex fanden sich jeweils zu den Cochleareizorten korrespondierende Areale, die sich durch niedrige Schwellen, große Dynamik und große Maximalamplituden auszeichneten. Die größte Reaktion bei Elektrodenkombination 1/2 lag konstant 0.5-1.5 mm weiter caudal als bei Kombination 7/8. Die bei den gehörlosen Katzen gefundenen Beziehungen zwischen empfindlichen Cortexarealen und cochleärem Reizort sind mit denen normal hörender, akustisch stimulierter Katzen vergleichbar (z.B. Harrison et al., 1993; Rajan et al., 1993). Obwohl die untersuchten Katzen keinerlei Hörerfahrung besaßen, war bei elektrischer Reizung des Hörnervs eine deutliche corticale Tonotopie festzustellen, die sich sowohl in den Schwellenverläufen der Oberflächenpotentiale als auch im Dynamikbereich der angepaßten Intensitätsfunktionen zeigte. Eine cochleotope Organisation des primären auditorischen Cortex ist also auch ohne Hörerfahrung möglich.
Diese Arbeit befaßt sich mit der Untersuchung des Emissionsverhaltens der K+ Mesonen in Au + Au Stößen bei 1AGeV. Das Experiment wurde mit dem Kaonen-Spektrometer KaoS am Schwerionensynchrotron SIS der Gesellschaft für Schwerionenforschung GSI durchgeführt. In zahlreichen Untersuchungen relativistischer Schwerionenstöße wurde eine kollektive Bewegung der Nukleonen beobachtet, die als Fluß bezeichnet wird. In nichtzentralen Stößen wurde u. a. ein gerichteter Seitwärtsfluß der Nukleonen und Pionen in die Reaktionsebene und ein elliptischer Fluß senkrecht zur Reaktionsebene gefunden. Der Nukleonenfluß wird als hydrodynamischer Effekt aufgrund des Drucks in der Reaktionszone interpretiert, während der Fluß der Pionen als Folge der Endzustandswechselwirkung verstanden wird. In dieser Arbeit wurde die Untersuchung des Flußphänomens auf die positiv geladenen Kaonen erweitert. Die Kaonen, die ein seltsames Quark enthalten, stellen eine besonders geeignete Sonde der dichten Reaktionszone dar. Wegen der großen mittleren freien Wegläange sollten die Kaonen fast ungestört nach außen emittiert werden. Zur Untersuchung dieser Fragestellung wurden die spektralen Energieverteilungen und die azimutalen Winkelverteilungen studiert. Um diese in Abhängigkeit von der Zentralität der Schwerionenreaktion zu untersuchen, wurden Stoßparameter und Anzahl der partizipierenden Nukleonen experimentell bestimmt. Dazu wurden die mit dem Großwinkel-Hodoskop bestimmte Teilchenmultiplizität und die mit dem Kleinwinkel-Hodoskop bestimmte Ladungssumme der Projektilspektatoren benutzt. Der Nachweis der Projektilspektatoren mit dem Kleinwinkel-Hodoskop erlaubt ferner, für jedes Ereignis die Reaktionsebene einer Schwerionenreaktion zu bestimmen. Der Emissionswinkel der positiv geladenen Kaonen konnte dann in Bezug auf die Reaktionsebene untersucht werden. Die Energiespektren der Kaonen, die bei Theta CM ~ 90° und Theta QCM ~ 130° in zentralen Stößen gemessen wurden, haben einen Steigungsparameter (Temperatur) von etwa 87MeV. Die transversalen kinetischen Energiespektren bei vier verschiedenen Rapiditätsintervallen in zentralen Stößen haben einen Steigungsparameter von etwa 90MeV und keine Abweichung von einem thermischen Verhalten innerhalb der Meßgenauigkeit. Die Ausbeuten sind dagegen unterschiedlich. Bei R¨uckw ¨ artswinkel bzw. bei Targetrapidität wurde ein fast doppelt so großer Wirkungsquerschnitt wie bei Schwerpunktrapidität gemessen. Die polare Winkelverteilung der positiv geladenen Kaonen ist also nicht isotrop. In dieser Arbeit konnte zum ersten Mal der elliptische Fluß der positiv geladenen Kaonen nachgewiesen werden: K+ Mesonen werden bevorzugt senkrecht zur Reaktionsebene emittiert. Die azimutale Anisotropie ist am stärksten für periphere und semi-zentrale Stöße und im Bereich der Schwerpunktrapidität. Im Gegensatz zu den Pionen zeigt die Stärke der Anisotropie keine Abhängigkeit vom Transversalimpuls. Während im Falle der Pionen die azimutale Anisotropie auf die Abschattung durch die Spektatoren zurückgeführt wird, kann dieser Effekt die Kaonendaten nicht erklären, da die K+ Mesonen eine große mittlere freie Weglänge in Kernmaterie besitzen. Mikroskopische Transportmodellrechnungen wie RBUU und QMD können den elliptischen Fluß der Kaonen nur unter Berücksichtigung des Kaon-Nukleon-Potentials im nuklearen Medium wiedergeben [Li97, Wan98a]. Als ein anderer experimenteller Hinweis auf das KN-Potential im Medium wurde das Verschwinden des gerichteten Seitwärtsflusses der Kaonen vorhergesagt [Li95a]. Die Analyse der experimentellen Daten in einem Rapiditätsintervall von y/yStrahl = 0:2 ~ 0:8 zeigt keine in die Reaktionsebene gerichtete Flußkomponente.
S. leicht übererarbeitete Version der Dissertation: Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
Memorialforschung hat Konjunktur, und dass die lebens- und literaturgeschichtliche Erinnerung in den Werken Peter Handkes eine Rolle spielt, ist bekannt. Daß aber Handke seit den 70er Jahren vor allem eine Gedächtniskunst projektiert und in immer neuen Versuchen auf den Weg bringt, wurde bislang nicht beachtet und ist Gegenstand dieser Untersuchung. Die Handkeschen Protagonisten, die allesamt aus den bürgerlichen Zusammenhängen herausfallen, suchen im Kanon der Geschichten und Bilder nach Vorstellungen des Lebens. Orientierung bieten Texte (oder auch nur Aussprüche) Goethes, Stifters, Homers, ferner Gemälde Cézannes oder Hoppers, Filme, mythologische und biblische Erzählmuster. Handke wiederholt jedoch nichts Überkommenes, er experimentiert damit. Seit "Der kurze Brief zum langen Abschied" (1972) fügt er Elemente der Tradition zu immer neuen Zeit-Räumen und Selbstentwürfen zusammen. Spätestens aber ab "Das Gewicht der Welt" (1977) steht dahiner die formulierte Absicht, "ein Gedächtnis für alle anderen" werden zu wollen. Neben der rhetorischen Textanalyse sieht sich die Arbeit der komparativen Kulturwissenschaft verpflichtet. Damit nähert sie sich ihrem Gegenstand auf zwei unterschiedlich gepflasterten Wegen, um die in Handkes Oeuvre vielfältig ausgebreitete Gedächtnisthematik herauszuarbeiten.
Ziel der vorliegenden Arbeit ist die Untersuchung inter- und intramolekularer Wechselwirkungen in Molekülkristallen, Ausgangspunkt sind die Kristallisation und Strukturbestimmung ausgewählter Modellverbindungen. Die einzelnen Fragestellungen werden durch geeignete Kombinationen sich ergänzender Analysenmethoden, umfangreichen Datenbank-Recherchen und quantenchemischen sowie Atompotential-Berechnungen zu beantworten versucht.
Zusammen mit anderen b 2 Sympathomimetika wird Terbutalin schon seit langem in der Behandlung chronisch obstruktiver Lungenerkrankungen (COLE) eingesetzt. Dabei wurde mehrfach von schweren unerwünschten kardialen Wirkungen nach der Anwendung von Terbutalin berichtet. Die Tatsache, daß die COLE in der Regel mit chronisch hypoxiegeschädigten Herzen assoziiert sind, gab Anlaß, die Auswirkungen von Terbutalin auf hypoxiebelastete isolierte Rattenherzen und deren Mitochondrien zu untersuchen. Dafür wurde das zunächst für 20 Minuten normoxisch arbeitende Rattenherz (working rat heart) einer fünfzigminütigen Hypoxiephase ausgesetzt, während der es mit Terbutalin in Konzentrationen zwischen 1,1 und 225,3 ng/ml perfundiert wurde (0,5, 1, 5, 10 und 100 nmol Terbutalin auf 100 ml Perfusionspuffer). Die Perfusionsgeschwindigkeit betrug 2 ml/min. Der Hypoxiephase folgte eine siebzigminütige Reoxygenierungsphase, in der in zehnminütigen Abständen das Herzminutenvolumen (HMV), die Herzfrequenz und der Koronarfluß dokumentiert wurden. Nach Abschluß der Reoxygenierungsphase wurden die myokardialen Mitochondrien isoliert, um die ATP Synthese und ATPaseAktivitäten sowie die Membranfluidität zu messen. Zusätzlich wurden zwei Versuchsreihen ohne Hypoxiephase durchgeführt (mit 1 und 100 nmol Terbutalin), um die alleinige Wirkung von Terbutalin auf die Rattenherzen zu untersuchen. Die Aortenflußmessung während der Reoxygenierung ergab eine generelle Reduzierung der Herzleistung im Vergleich zu den Kontrollherzen (ohne Terbutalinzugabe). Lediglich im 1 nmolVersuch (2,3 ng/ml) war zu Beginn der Reoxygenierungsphase eine signifikante Steigerung des HMV festzustellen. Jedoch hielt auch diese Steigerung nur für etwa zwanzig Minuten an. Alle anderen Versuchsreihen (mit 0,5, 5, 10 und 100 nmol Terbutalin) ergaben eine deutliche Verschlechterung der Herzleistung. Das HMV der Kontrollherzen betrug während der Reoxygenierung durchschnittlich etwa 75% des HMV vor der Hypoxiephase. Die Terbutalinherzen erreichten abgesehen vom 1 nmolVersuch, wo ein HMVMaximum von etwa 80% erreicht wurde, Aortenflußwerte, die zwischen 30% und 70% der Ausgangswerte lagen. Eine Besonderheit ergab sich beim 0,5 nmolVersuch. Hier fand sich eine Steigerung des Aortenflusses über den gesamten Verlauf der Reoxygenierung von etwa 48% auf 68%. Das Herz schien sich von einer anfangs starken Reduzierung des HMV wieder zu erholen. Bezüglich der Herzfrequenzen war eine weitgehende Korrelation zu den Herzminutenvolumina festzustellen, so daß eine Steigerung des HMV vermutlich Folge einer Herzfrequenzsteigerung ist und umgekehrt. Die Koronarflußmessungen ergaben eine Steigerung der Koronarperfusion, also eine Vasodilatation, ab einer Dosis von zwischen 1 nmol und 5 nmol Terbutalin. In höheren Dosen (10 nmol und 100 nmol) kam es zu einer deutlichen Reduzierung des Koronarflusses, was vermutlich auf die kardiotoxischen Wirkeigenschaften von Terbutalin zurückzuführen ist. Es zeigte sich also ein optimaler Wirkungsbereich, der zwischen 1 nmol und 5 nmol liegt. Die mitochondrialen Messungen ergaben eine generelle Reduzierung der ATPSyntheseAktivitäten (0,0150,03 µmol ATP/mg/min) und eine generelle Steigerung der ATPaseAktivitäten (0,71,65 µmol ADP/mg/min) im Vergleich zur Kontrolle (0,04 µmol ATP/mg/min bzw. 0,6 µmol ADP/mg/min). Dabei trat das ATPSynthese Aktivitätsmaximum bzw. das ATPaseAktivitätsminimum im 10 nmolVersuch auf. Die kleinste ATPSynthese Aktivität (0,015 µmol ATP/mg/min) wurde beim 1 nmolVersuch, wobei gleichzeitig das HMVMaximum erreicht wurde, gemessen. Es kann also von einem erhöhten Energiebedarf, der nicht durch eine gesteigerte ATPSyntheseAktivität gedeckt wird, ausgegangen werden. Vermutlich wird die ATPSynthese durch eine aufgrund hoher intramitochondrialer Kalziumspiegel gesteigerte Aktivität von ebenfalls H Gradienten abhängigen Kalziumcarriern kompetitiv' gehemmt. Die hohen intramitochondrialen Kalziumspiegel sind dabei eine Folge hypoxie bzw. reoxygenierungsbedingter Membrandefekte. Die Messungen der Membranfluidität ergaben keine nennenswerten Abweichungen von der Kontrolle. Dies ist ein Hinweis darauf, daß die kardiodepressiven Effekte nicht hauptsächlich auf hypoxiebedingte Mitochondrienmembrandefekte zurückzuführen sind, sondern viel wahrscheinlicher auf Terbutalinbedingte toxische Effekte. Die Experimente ohne Hypoxiephase ergaben mit 1 nmol Terbutalin (2,3 ng/ml) eine diskrete Steigerung des HMV, mit 10 nmol Terbutalin (22,5 ng/ml) eine deutliche Reduzierung. Dies läßt den Schluß zu, daß die kardiodepressive Potenz von Terbutalin durch zusätzliche Hypoxiebelastung verstärkt wird. Drei mögliche Mechanismen können für die kardiodepressiven Eigenschaften von Terbutalin verantwortlich gemacht werden. Zum einen führt eine hypoxiebedingte relative Überstimulation von bRezeptoren zur Entstehung von Sauerstoffradikalverbindungen, die zum Teil irreversible Zellschädigungen verursachen können. Die Entstehung von Sauerstoffradikalen wird durch die Reoxygenierung (oxidativer Streß) nach der Hypoxiephase noch verstärkt. Zum zweiten handelt es sich bei Terbutalin um einen partiellen Agonisten am bRezeptor. Vor allem in Verbindung mit oxidativem Streß, der durch die Reoxygenierung gegeben ist, wird die maximale Wirksamkeit partieller Agonisten reduziert, was sich auch auf die positiv inotropen Eigenschaften von Terbutalin auswirkt. Zum dritten kann von nicht über bRezeptoren vermittelten kardiotoxischen Effekten ausgegangen werden. Vermutlich ist eine dosisabhängige Kombination aller drei Mechanismen die Ursache für die Kardiotoxizität von Terbutalin. Es muß also von einer rezeptorvermittelten bmimetischen und von einer primär kardiotoxischen Wirkkomponente ausgegangen werden. In niedriger Dosierung (0,5 nmol) überwiegt die kardiotoxische Wirkkomponente, von deren Auswirkungen sich die Rattenherzen jedoch erholen konnten. Im 1 nmolVersuch war dann eine optimale Dosierung erreicht (1 nmol/100ml » 2,3 ng/ml), die gleichzeitig auch der effektiven Plasmakonzentration (beim Menschen) von Terbutalin entspricht. Hier überwiegt die bmimetische Wirkkomponente. In höherer Dosierung (10 nmol und 100 nmol) kommt es dann zur relativen Überstimulation von bRezeptoren, was zu den oben beschriebenen teils irreversiblen Myokardschäden führt.
Die zunehmend breitere Verwendung der Hydroxyethylstärke in immer höheren Dosierungen stellt die Frage nach ihrem Abbau und der Speicherung im Körper. Dazu wurde die Leber, als ein Organ mit bekannter Speicherung von Hydroxyethylstärke und als möglicher Abbauort, mit HES 200/0,5 künstlich perfundiert. Als Modell wurde die Wistar-Ratte gewählt, und als Kolloide zum Vergleich diente eine HES 450/0,7 und eine Gelatinelösung. Zur Differenzierung des Abbaus durch die Leber und des Plasmas wurde eine Reihe mit gewaschenen Erythrozyten als Sauerstoffträger, und ein Leerversuch ohne Leber durchgeführt. Durch die Leberperfusionen konnte gezeigt werden, dass ein Abbau in der Leber nur sehr langsam stattfindet. Weiterhin liess sich nur ein eingeschränkter Abbau der Hydroxyethylstärke mit mittlerer Substitution durch die a-Amylase zeigen, während er sich bei der hochsubstituierten HES überhaupt nicht nachweisen liess. Der Abbau der Hydroxyethylstärke ist nach anfänglich schneller Spaltung durch die a-Amylase und Ausscheidung durch die Niere anschliessend nur noch sehr langsam. Da in der Leber sowohl Hepatozyten als auch Zellen des RES vorhanden sind, scheint diese langsame Elimination auch für den Patienten zu gelten, nachdem alle nierengängigen Moleküle im Urin ausgeschieden wurden. Während diese langsame Elimination die mittelsubstituierte HES nur zum kleinen Teil betrifft, dürfte jedoch der grösste Teil der hochsubstituierten HES auf diese Art abgebaut werden. Dennoch ist wohl nur der Anteil der persistierenden Fraktion unterschiedlich, aber sowohl bei HES 200/0,5 als auch bei HES 450/0,7 scheint die persistierende Fraktion nicht nur ähnlich eliminiert zu werden sondern auch chemisch gleich zu sein. Sowohl hoch- als auch mittelsubstituierte HES können bei häufiger Applikation kumulieren. Ein Kolloid mit ähnlich positiven Eigenschaften, aber ohne persistierende Fraktion wäre für die Daueranwendung der Hydroxyethylstärke vorzuziehen.
Die Zahl der jährlich in der Bundesrepublik vorgenommenen Schwangerschaftsabbrüche wird auf weit über 250.000 geschätzt. Auf drei Lebendgeburten kommt somit ein Abbruch. Mit Hilfe eines Fragebogens und ergänzender Daten aus der Patientenkartei werden im Zeitraum vom 08.09.1994 bis 12.04.1996 103 Patientinnen im Alter von 16 bis 45 Jahren befragt, die eine Allgemeinarztpraxis in Südhessen zu einem Schwangerschaftskonfliktberatungsgespräch aufsuchen. Über 90 % der Frauen wohnen weniger als 20 km von der Praxis entfernt. Der Anteil der Verheirateten, Ausländer und Berufstätigen beträgt jeweils ca. 50 %. Über 80 % haben höchstens 2 Kinder. 64 % der Frauen haben zuvor noch keinen Abbruch durchführen lassen. Die Beratungsgespräche finden zu 69 % fünf bis acht Wochen nach der letzten Regelblutung statt. Knapp 60 % der Patientinnen führen keine sichere Verhütung durch. 57 % der Gründe, die zum Abbruch veranlaßten, waren soziale Notstände, Überforderung der alleinstehenden oder sich nicht reif genug fühlenden Mutter oder berufliche Gründe. Lediglich einer Patientin wurde im Falle des Austragens des Kindes Unterstützung durch ihr soziales Umfeld zugesagt. Nur 24 % sahen ihre finanzielle Situation, 37,5 % ihre Wohnverhältnisse als ausreichend an. In über 52 % der Fälle entstammt das Kind einer krisenhaften Partnerschaft. 17 % der Partner sind arbeitslos, 10 % befinden sich noch in der Ausbildung. Weniger als 13 % der Schwangeren werden zur Beratung von ihrem Partner begleitet. Außer bei sechs medizinisch indizierten Abbrüchen liegt bei fast allen Fällen eine komplexe, multifaktoriell bedingte, soziale Problematik oder eine soziale Notsituation vor. Entgegen den Inhalten der öffentlichen Diskussion, die meist auf juristischer Ebene geführt wird, befindet sich die Mehrzahl der Ratsuchenden in einer ambivalenten Konflikt und/oder Notsituation. Bezüglich der Konfliktsituation sollte der ungewollt Schwangeren geholfen werden, den zugrundeliegenden Konflikt selbst zu erkennen, um eine von ihr selbst verantwortbare und tragbare Konfliktlösung finden zu können. In sozialen Notsituationen sehen ungewollt Schwangere keine Alternative zum Schwangerschaftsabbruch. Staatlich zugesicherte Hilfen auch wenn sie durch Hilfeleistungen des sozialen Umfeldes ergänzt werden stehen in einem deutlichen Mißverhältnis zu den Bedürfnissen der Schwangeren. Ist die junge Mutter alleinstehend, so ist sie trotz staatlicher Zuwendungen nur sehr eingeschränkt in der Lage, für ihren und des Kindes Lebensunterhalt zu sorgen. In einer Partnerschaft oder Familie bringt die Geburt eines Kindes häufig den Verdienstausfall der Mutter mit sich, was die soziale Situation der Betroffenen erschwert. Um erweiterte Problemlösungsansätze erarbeiten zu können, wäre eine öffentliche Diskussion erforderlich. Sie müßte zum einen die Prävention (Sexualpädagogik, Antikonzeptionsaufklärung) fördern und zum anderen die realen Bedürfnisse ungewollt Schwangerer in Konfliktsituationen berücksichtigen, um ihre soziale Sicherheit und Integration in die Gesellschaft zu gewährleisten.
Der Ursprung der Masse bekannter Teilchen und der Einschlu der Quarks in Hadronen ist einer der grundlegendsten Fragestellungen der modernen Physik. Die Kenntnis des Verhaltens von Kernmaterie unter extremen Bedingungen ist unabdingbar zum Verstandnis der Evolution des Universums und zur Theoriebildung von stellaren Objekten wie Neutronensternen und schwarzen Löchern. Einen experimentellen Zugang zur Untersuchung dieser Problematik stellt die Erzeugung heier und dichter Kernmaterie in ultrarelativistischen Schwerionenkollisionen dar. Hierzu untersucht das NA49 Experiment seit Herbst 1994 am 208-Pb-Strahl des CERN-SPS Pb+Pb Kollisionen bei 158 GeV pro Nukleon. Ein Schwerpunkt des Forschungsprogrammes liegt in der Untersuchung des Zustandes der Materie in der frühen Phase der Reaktion. Nach gegenwartem Stand der Theorie wird bei genugent hoher Energiedichte der Einschlu der Quarks in Hadronen aufgebrochen und ein Zustand der Materie erzeugt, in welchen die eektiven Freiheitsgrade von Hadronen und Hadronen-Resonanzen in die von Quarks und Gluonen übergehen - das sogenannte Quark-Gluon-Plasma (QGP). Die Honung ist nun, da sich die Formation eines solchen QGP im hadronischen Endzustand wiederspiegelt. Es wird erwartet, da die Seltsamkeitsproduktion in einem QGP sich in ihrer Rate und ihren Gleichgewichtswerten von der in einem hadronischen Feuerball-Szenario unterscheidet und sich somit als Signatur fur die Erzeugung eines GQP eignet. Von besonderen Interesse ist hier die Produktion von Hyperonen. Schwerpunkt dieser Arbeit ist die Untersuchung der Produktion von doppelt seltsamen geladenen -Hyperonen in zentralen Pb+Pb Kollisionen. Zu diesem Zweck wurden 58000 zentrale Pb+Pb Ereignisse der im Herbst 1995 aufgezeichneten Reaktionen untersucht. Die Analyse der Daten wurde auschlielich mit der zweiten Spurendriftkammer (VTPC2) durchgeführt. Zur Rekonstruktion der -Hyperonen muten Verfahren entwickelt werden, um die typischen Zerfalls-Topologien der doppelt seltsamen Hyperonen aus der Vielzahl von ca. 700 in der Vertex-TPC gemessenen geladenen Teilchenspuren herauszulösen. Aus den in der kombinatorischen Analyse rekonstruierten 720 und 138 + - Hyperonen konnten Spektren des Transversalimpulses und Rapiditatsverteilungen ermittelt werden. Die gewonnene Phasenraum-Akzeptanz fur die in der VTPC2 gemessenen und + - Hyperonen beträgt ....
Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
In der vorliegenden Arbeit beschäftigen wir uns mit der Frage, wie ein Regler für ein hochdimensionales physikalisch/technisches System strukturiert und optimiert werden soll. Diesbezüglich untersuchen wir einen neuen Ansatz, welcher versucht, Regel-Mechanismen des ökonomischen Marktes und Lern-Prozesse mit in den Regler einzubauen. Um eine anschauliche Vorstellung von der Wirkung des Reglers zu erhalten, wenden wir diesen auf ein einfaches physikalisches Model an, eine an ihren Enden eingespannte eindimensionale Federkette. Wir implementieren das Model auf einem Rechner und simulieren den Einfluß des Regelverfahrens auf die Bewegung der Kette. Dabei beschränken wir uns auf den Grenzfall kleiner Amplituden, um das System im Rahmen einer näherungsweise linearen Dynamik beschreiben zu können. Mit Hilfe eines schwachen destabilisierenden Zusatzpotentials erreichen wir, daß die niedrigen Eigenmoden der schwingenden Kette instabil werden und die ausgestreckte Kette eine instabile Gleichgewichtslage darstellt. Wir stellen uns die Aufgabe, diese unter Verwendung des Reglers zu stabilisieren. Anhand des Modells untersuchen wir den Einfluß verschiedener Anfangsbedingungen der Kette, den Einfluß der Markt-Regelung, den Einfluß verschiedener Kommunikationsstrukturen und den Einfluß des Lernverfahrens auf die Wirksamkeit und die Robustheit des Regelprozesses. Als wichtigstes Ergebnis erkennen wir, daß die Regelung mit dem Markt robuster im Vergleich mit der Regelung ohne Markt ist, aber im allgemeinen einen höheren Regel-Energieaufwand aufweist. Untersuchungen anhand des Lernverfahrens ergeben, daß sich das Lernen der Markt- und der Kommunikationsstruktur kombinieren läßt und dadurch die Wirksamkeit der Regelung gegen über der Verwendung von nur einem der beiden Lern-Ansätze erhöht werden kann. Unsere Ergebnisse zeigen, daß sich das Markt-Konzept vollständig auf den gegebenen technischen Regelprozeß übertragen läßt. In der Diskussion der Ergebnisse führen wir die erhöhte Robustheit und den erhöhten Energieaufwand der Markt-Regelung auf eine indirekte, nichtlineare Kopplung der Regeleinheiten zurück, die der Markt-Mechanismus in den Regelprozeß einführt. Die Nichtlinearität bewirkt, daß die von dem Regler bestimmten Regelkräfte bei kleinen Kontrollfehlern relativ größer sind als bei großen Kontrollfehlern. Daduch ist der Energieaufwand der Markt-Regelung bei kleinen Kontrollfehlern gegenüber der Regelung ohne Markt erhöht. Der Regler ist damit in der Lage, die Kette auch bei dem Ausfall einer Regeleinheit zu stabilisieren, da ausreichend große Regelkräfte durch die verbleibenden Regeleinheiten ausgeübt werden. Die Kopplung von benachbarten Massenpunkten durch Federn unterstützt die Robustheit der Regelung in dem untersuchten Ketten-Modell, da die Kopplung dazu führt, daß die Massenpunkte eine zur instabilen Gleichgewichtslage rücktreibende Kraft erfahren und dadurch in den Bereich von kleinen Kontrollfehlern und relativ hohen Regelkräften gelangen. Am Ende der Diskussion gehen wir kurz auf mögliche Anwendungen der gewonnen Ergebnisse ein. Dabei haben wir besonders technische Regelprozesse im Sinne von Smart Matter (intelligente Bauteile) im Auge.
Jakob Nussbaum 1873 - 1936
(1998)
Jakob Nussbaum gehört zu den kulturpolitischen Persönlichkeiten der zwanziger Jahre des vergangenen Jahrhunderts. Als Maler in München und Ungarn ausgebildet und inspiriert von der Berliner Secession arbeitete er vorwiegend in Frankfurt. Von 1900 bis zu seiner Auswanderung nach Palästina 1933 gestaltete Nussbaum das Frankfurter Kulturleben aktiv mit. So leitete er zehn Jahre lang den Frankfurter Künstlerbund, die sogenannte Frankfurter Secession, ein Forum für modern orientierte Künstler. Auch als Lehrer an der Städelschule machte er seinen Einfluß geltend. Nussbaums zahlreiche Porträts von Persönlichkeiten des öffentlichen Lebens dokumentieren die Zeitgeschichte, ebenso wie seine für die Stadthistorie bedeutenden Frankfurt-Ansichten. Der Künstler, der eng mit Max Liebermann befreundet war, wird gerne als der Frankfurter Impressionist bezeichnet. Doch weist Nussbaums Werk unterschiedliche stilistische Tendenzen auf, die seine Auseinandersetzung mit dem aktuellen Kunstgeschehen über drei Jahrzehnte hinweg widerspiegeln. Ziel der Arbeit ist es vor allem gewesen, zunächst das Werk Nussbaums zusammenzutragen. Sodann wurden die für Nussbaum spezifischen Merkmale seines Schaffens herausgearbeitet. Hierbei wurde die komparative Methode angewandt, also Nussbaums Schaffen und Werk mit dem seiner Zeitgenossen verglichen. Letztlich unternimmt diese Arbeit den Versuch der kunstgeschichtlichen Einordnung und Würdigung des Werkes des Künstlers. Die Arbeit liegt in drei Bänden vor: 1. Textband mit Abbildungen. 2. Materialband – wobei die hier aufgeführten Verzeichnisse zur Literatur, zu den verwandten Abkürzungen und zu den Ausstellungen des Künstlers für alle drei Bände dieser Arbeit gelten. 3. Catalogue Raisonné mit einem Verzeichnis der von Nussbaum porträtierten Personen. Hierdurch konnten dem Leser der Zugang zu dieser Arbeit erleichtert und Wiederholungen umfangreicher Teile der Arbeit vermieden werden. Insbesondere sind bei den Abbildungen im Textband vereinfachend bei Werken des Künstlers nur Titel, Erscheinungsjahr und Katalognummer angegeben. Bei Werken anderer Künstler werden Name, Titel und Entstehungsjahr vermerkt. Außerdem sind sie noch einzeln in einer Liste am Ende des Textes aufgeführt, in welcher auch die Abbildungsnachweise verzeichnet sind.
Bei der Kollision ultra-relativistischer Schwerionen wird die Kernmaterie extrem verdichtet und erhitzt. Die dabei erzeugte Energiedichte könnte ausreichen, um für kurze Zeit in einem begrenzten Volumen ein Quark-Gluon-Plasma entstehen zu lassen. Dieser Zustand der Materie, bei dem die Quarks und Gluonen nicht mehr in Hadronen gebunden sind, lag möglicherweise innerhalb der ersten Millisekunde nach dem Urknall vor und wird im Inneren von schweren Neutronensternen erwartet. Das NA49-Experiment am SPS-Beschleuniger des CERN untersucht hauptsächlich die Produktion von Hadronen in ultra-relativistischen Blei-Blei-Kollisionen. Eine erhöhte Produktion seltsamer Teilchen ist eine der vorgeschlagenen Signaturen für das Auftreten eines Quark-Gluon-Plasmas. Neutrale seltsame Teilchen werden aus den Spuren ihrer geladenen Zerfallsprodukte, die diese in den großvolumigen Spurendriftkammern (TPC) des NA49-Experiments hinterlassen, rekonstruiert. Bei der Auslese der TPCs entstehen Datenmengen von ca. 8 TByte (8 x 10 exp 12 Byte) pro Strahlzeit. Diese riesigen Datenmengen und die aufwendige Spurrekonstruktion stellen hohe Anforderungen an die Software-Infrastruktur. Daher wurde zur Vereinfachung und Modularisierung der Software-Entwicklung eine Software-Entwicklungs- und Analyseumgebung konzipiert und implementiert. Sie basiert auf dem Client-Server-Prinzip und kann über ein heterogenes TCP/IPNetzwerk aus UNIX-Workstations verteilt werden. Der zentrale Bestandteil des Systems ist der Daten-Server, der Datenobjekte mit persistenten Relationen verwaltet und die Kommunikation mit den Clients zur Steuerung des Systems übernimmt. Programmierschnittstellen (API) für verschiedene Sprachen (C, FORTRAN, C++, Fortran90) erlauben eine einfache Entwicklung von Clients, beispielsweise für die Datenanalyse und -visualisierung. Für die Rekonstruktion neutraler seltsamer Teilchen wurden 93497 zentrale Blei-Blei-Ereignisse aus der Strahlzeit im Herbst 1995 analysiert. Aus den Rohdaten der zweiten Vertex-TPC (VTPC2), die zur Bestimmung der Impulse in einem Magnetfeld positioniert ist, wurden zunächst die Ladungs-Cluster und dann die Teilchenbahnen rekonstruiert. Mit diesen Spuren wurden anschließend die Zerfalls-Vertices von neutralen seltsamen Teilchen gesucht. Dabei wurde neben den tatsächlichen Vertices auch ein Untergrund von zufälligen Kombinationen gefunden. Das Verhältnis von Signal zu kombinatorischem Untergrund wurde durch die Anwendung von Qualitätskriterien optimiert. Die Phasenraumakzeptanz liegt für die drei untersuchten Teilchen Lambda, Antilambda und K 0 s in den Rapiditäts-Intervallen 2,9 < y lambda < 3,9, 3,0 < y antilambda < 3,8 und 3,25 <= yK < 4,05. Der verwendete Transversalimpuls-Bereich ist abhängig von der Teilchenspezies und dem betrachteten Rapiditätsintervall und liegt zwischen 0,6 GeV/c und 2,4 GeV/c. Die inversen Steigungsparameter der Transversalimpuls-Spektren sind rapiditätsabhängig. Im Rapiditätsintervall, das jeweils am nächsten an Midrapidity liegt, betragen sie T lambda = 281 +- 13 MeV, T antilambda = 308 +- 28 MeV und T K 0 s = 239 +- 9 MeV. Die beobachtete lineare Abhängigkeit der inversen Steigungsparameter von der Ruhemasse und die Überschreitung der Hagedornschen Grenztemperatur für ein ideales Hadronengas sind ein Indiz für die Existenz eines kollektiven transversalen Flusses. Im Rahmen eines hydrodynamischen Modells ergibt sich eine mittlere transversale Flußgeschwindigkeit <vT> ~ 0,65 c und eine Freeze-out-Temperatur T fo ~ 110 MeV. Während die Rapiditäts-Verteilungen für Antilamda und K 0 s bei Midrapidity ein deutliches Maximum aufweisen, zeigt die Rapiditäts-Verteilung der Lambda einen flachen Verlauf. Die Multiplizitäten im Rapiditätsintervall bei oder nahe Midrapidity betragen 19,2 +- 1,1 für Lambda, 3,2 +- 0,3 für Antilambda und 27,1 +- 1,8 für K 0 s . Aufgrund der in der Analyse verwendeten Qualitätskriterien kann angenommen werden, daß die Spektren von Lambda und Antilambda in erster Näherung frei von Lambda und Antilambda aus den Zerfällen mehrfach-seltsamer Baryonen sind. Aus dem Vergleich mit den Rapiditäts-Spektren, die von anderen NA49-Gruppen mit unterschiedlichen Analyseansätzen ermittelt wurden, konnte der systematische Fehler der Analyse auf etwa 20-30% abgeschätzt werden. Beim Vergleich der Rapiditäts-Spektren von verschiedenen Stoßsystemen bei der gleichen Energie besitzen die Lambda-Verteilungen für Schwefel-Schwefel- (S+S) und Blei-Blei-Stöße (Pb+Pb) die gleiche flache Form. Hingegen weist die p+p-Verteilung zwei deutliche Maxima auf. Die Rapiditäts-Verteilungen von K 0 s und Antilambda zeigen für alle drei Stoß-Systeme annähernd die gleiche Form. Während bei den Lambda- und K 0 s -Verteilungen die Teilchenausbeute beim Übergang von S+S zu Pb+Pb etwa mit der Anzahl der Partizipanten skaliert, ist der Anstieg bei den Antilambda nur halb so groß. Im Vergleich zu p+p nimmt die Produktion aller drei Spezies um etwa das Zweifache der Partizipanten-Anzahl zu. Die Lambda-Multiplizität bei Midrapidity wird durch Rechnungen des UrQMD-Modells sehr gut reproduziert. Allerdings scheint die Form des Lambda-Rapiditäts-Spektrums flacher als die des Modells zu sein. Bei den Antilambda - und K 0 s -Spektren wird die Form der Verteilung besser durch das Modell beschrieben, jedoch reproduziert es nicht die Gesamtmultiplizität. Während die K 0 s-Daten um 30% unter der UrQMD-Verteilung liegen, wird für die Antilambda nur ungefähr die Hälfte der tatsächlich gemessenen Multiplizität vorhergesagt. Eine Abschätzung für die Anzahl von s- und s-Quarks, die bei einem zentralen Blei-Blei-Stoß erzeugt werden, zeigt eine Übereinstimmung innerhalb der systematischen Fehler dieser Abschätzung und ist damit konsistent mit der erwarteten Erhaltung der Seltsamkeits-Quantenzahl. Das Antilambda/Lambda-Verhältnis bei Midrapidity beträgt 0,17 +- 0,02. Der Vergleich der Verhältnisse von seltsamen zu nicht-seltsamen Teilchen zeigt keinen signifikanten Unterschied zwischen Proton-Proton- und Proton-Kern-Stößen; beim Übergang zu S+S kommt es zu einer Erhöhung der Seltsamkeits-Produktion um etwa einen Faktor 2. In Blei-Blei-Kollisionen kommt es jedoch zu keiner weiteren Erhöhung. Mit steigender Anzahl der Partizipanten, die proportional zur Größe des Reaktionsvolumens ist, kommt es zu einer Sättigung der Strangeness-Produktion. Die Energieabhängigkeit der Strangeness-Produktion zeigt für Nukleon-Nukleon-Stöße (N+N) ein anderes Verhalten als für Kern-Kern-Kollisionen (A+A). Während sie für N+N-Stöße zwischen AGS- und SPS-Energien um einen Faktor 2 zunimmt, kommt es bei A+A-Kollsionen zu einer Sättigung auf dem AGS-Niveau. Dieser Unterschied kann durch eine Reduktion der Masse der Seltsamkeitsträger bei den A+A-Stößen erklärt werden, wie sie in einem Quark-Gluon-Plasma erwartet wird. Dies läßt vermuten, daß der Phasenübergang von einem Quark-Gluon-Plasma zu einem Hadronengas im Energiebereich zwischen AGS und SPS stattfindet.
Ziel der Arbeit war es ein Cochlea-Implantat zur mehrkanaligen chronischen Elektrostimulation des Nervus cochlearis der kongenital gehörlosen weißen Katze zu entwickeln, um damit einen Beitrag zur Grundlagenforschung der zentralen Hörbahnreifung und der hierbei wichtigen kritischen Entwicklungsperioden zu leisten. Dazu wird das letztendlich mit fünf getrennt ansteuerbaren Elektrodenflächen versehene Implantat in einer Operation in die Scala tympani der meist 12 - 15 Wochen alten, gehörlosen Katzen eingesetzt und diese im Anschluß daran für etwa sechs bis acht Monate chronischen neurophysiologischen Experimenten unterzogen. Die hier geleistete Arbeit wurde nötig, da die am Markt erhältlichen, kommerziellen Humanelektroden aufgrund der für Tierversuche mangelnden mechanischen Belastbarkeit ungeeignet sind. Eine für die University of Melbourne aus der NUCLEUS®-22-Elektrode weiterentwickelte Feline-Version (Shepherd, 1993; Xu et al. 1997) der australischen Firma NUCLEUS Ltd. ist kommerziell nicht verfügbar. Im Rahmen der in den folgenden Kapiteln dargelegten theoretischen Überlegungen und Entwicklungsstufen wurde letztendlich in einem Kompromiß zwischen idealem Design und der technischen Realisierbarkeit ein (5 1)- Implantat mit den geforderten elektrischen und mechanischen Eigenschaften entwickelt (siehe Abb. 1). Dieses besteht aus einer Elektrodenspitze in Form einer Goldkugel und vier separaten, durch Silikonringe voneinander getrennten Golddrahtringen. Die Kontaktierung dieser Elektrodenflächen erfolgt rein mechanisch mittels teflonisolierter 7-fach Edelstahllitzen, die bis zur erforderlichen Steckverbindung zum Signalprozessor in einem Medical-Grade-Silikonschlauch geführt werden. Die Zuleitung der indifferenten Elektrode, die in ihrem Aufbau der Implantatspitze gleicht und aus einer etwas größeren Goldkugel besteht, wird ab etwa 3/5 der Länge in einem parallel gelegenen Schlauch geführt. Dadurch kommt sie nach erfolgter Implantation im Nackenbereich der Katze zu liegen. Beide Schläuche verlaufen subcutan bis in die Schulterblattregion und werden hier durch eine transcutane Öffnung zu dem in einer Art Pullover am Rücken getragenen Signalprozessor geführt. Alle Entwicklungsstufen wurden jeweils elektrisch und mechanisch in vitro getestet und zum Teil anschließend implantiert. Dabei kam es bei den ersten implantierten Versionen aufgrund mangelnder mechanischer Dauerbelastbarkeit immer wieder zu Beeinträchtigungen der chronischen neurophysiologischen Experimente. Diese Probleme sind mit der Version "5 1-Edelstahl an Gold geknotet" behoben worden, und der bis jetzt mit dieser Technik einzige Ausfall einer Elektrodenfläche beruhte auf einem Litzenbruch der betreffenden Edelstahlzuleitung. Eine Erweiterung auf sechs Elektrodenflächen im intracochleären Bereich ist möglich, weitergehende Entwicklungswünsche bedürften dann jedoch der Verwendung neuer Materialien und Techniken.
Bei weltweit steigender Inzidenz von Krebserkrankungen in Verbindung mit den beträchtlichen Kosten für die Therapie und limitierten finanziellen Ressourcen ist eine wirtschaftlich sinnvolle Verteilung der Geldmittel die erstrebenswerteste Strategie um für ein Maximum an Patienten eine den Umständen entsprechend maximal wirksame Therapieform zu ermöglichen. Zur Beurteilung der Kostenentstehung und verteilung bei Krebstherapien wurde eine retrospektive Analyse hinsichtlich der Dauer der verschiedenen Abschnitte der Therapie bei 30 Patienten (13 Frauen, 17 Männer) durchgeführt und die Kosten der unterschiedlichen Behandlungsabschnitte betrachtet. Am Beginn stand dabei die Frage nach der Definition der Start und Endpunkte der einzelnen zeitlichen Intervalle und am Schluß die Ermittlung der Kosten pro Zeiteinheit, um Vergleiche der einzelnen Therapieintervalle auf ökonomischer Basis zu ermöglichen. Dabei ergab sich schon für die relativ kleine Stichprobe mit verschiedensten Anamnesen und Therapiezeiten ein verlängertes kuratives Behandlungsintervall im Gegensatz zu einer im Vergleich kürzeren palliativen Behandlungsdauer. Dabei konnte gezeigt werden, daß die Kosten pro Behandlungstag in der Regel für die kurative Behandlung geringer ausfielen als für die palliative, wobei sich der stationäre Aufenthalt in jedem Fall als maßgeblicher Kostenfaktor herausstellte. Generell scheinen die Ergebnisse darauf hinzudeuten, daß, während sich die kurativen Kosten in gewissen Grenzen prognostizieren lassen, dies bei den palliativen Kosten so nicht vorhersagbar ist. Aufgrund der Qualität der retrospektiv gewonnenen Daten und ihrer eingeschränkten Übertragbarkeit sollte die Wertigkeit dieser Aussage jedoch auch mit der nötigen Kritik betrachtet werden.
Für eine erhebliche Patientenanzahl gestaltet sich bei kurativ reseziertem Primärtumor eine hepatische Metastasierung zum limitierenden Faktor für die Überlebenszeit. Aufgrund des speziellen Metastasierungsverhaltens ist das hauptsächlich die Gruppe der kolorektalen Primärtumoren, die eine hohe Inzidenz an hepatischen Filiae aufweist. Bisher profitieren nur eine sehr geringe Anzahl der Betroffenen von der Möglichkeit der operativen Resektion solitärer Läsionen. Über 70% dieser Fälle erleiden jedoch wieder intrahepatische Tumorrezidive. Die systemische oder regionale Chemotherapie konnte bisher im Vergleich zu resezierten Patienten nur geringe Verbesserungen der Überlebenszeiten bei oftmals erheblichen Einschränkung der Lebensqualität erzielen. Vor diesem Hintergrund wurde die minimal invasive Laserinduzierte Thermotherapie (LITT) entwickelt, mit der es möglich ist, perkutan gezielt Tumoren in soliden parenchymatösen Organen zu zerstören. Dabei kann das umgebende Gewebe maximal geschont und der Eingriff in lokaler Anästhesie mit einem sehr kurzem Krankenhausaufenthalt und in Kürze auch ambulant durchgeführt werden. Voraussetzung für den optimalen Erfolg eines regionalen Verfahrens ist die genaue topographischen Darstellung der erzielten Koagulationsnekrose während und nach der Intervention. Die Magnetresonanztomographie hat sich bei dieser Aufgabe als nichtinvasives und genaues Instrument zur Dokumentation der intraoperativen Temperaturausbreitung durch temperatursensitive T1gew. Sequenzen und mittels optimierter Sequenzprotokolle zur Nachkontrolle der laserinduzierten Nekrosen erwiesen. Die vorliegenden Daten für eine Gruppe von 41 Patienten aus einer frühen klinischen Phase (Phase 2) behandelt mit konventionellen Applikatorsystemen und Leistungen bis zu maximal 5,6 Watt, dokumentieren eine gute lokale Tumorkontrollrate für 3 Monate und eine noch akzeptable Remissionsrate für die 6 MonatsKontrolle. Für die Gruppe der kolorektalen Karzinome konnten mittlere Überlebenszeiten von 29 Monaten dokumentiert werden. An Nebenwirkungen traten lediglich nicht therapiebedürftige Pleuraergüsse und subkapsuläre Hämatome auf, was den patientenschonenden, minimal invasiven Charakter des Verfahrens unterstreicht. Die nach der KaplanMeierMethode berechneten kumulativen Überlebensraten von etwa 28 Monaten im Vergleich zu unbehandelten Lebermetastasen sind unter der Berücksichtigung der überwiegend palliativen Ausgangssituation der Patienten als Erfolg zu betrachten. Hier können mit weiter optimierten Applikationssystemen in der 3. Phase der klinischen Entwicklung weit höhere lokale Kontrollraten dokumentiert werden, deren Auswirkung auf die Gesamtüberlebenszeit noch untersucht werden muß. Damit wurde mit der MRgesteuerten LITT ein neues minimal invasives Therapieverfahren zur Erlangung einer lokalen Tumorkontrolle entwickelt, das in palliativer, aber auch in einzelnen Fällen in kurativer Situation eine Therapieoption für Patienten mit Lebermetastasen vor allem kolorektaler Tumoren bietet. Die gute Verträglichkeit mit der Beschränkung auf Lokalanästhesie macht auch die Behandlung von Patienten vertretbar, die durch lange Chemotherapie stark in der Lebensqualität eingeschränkt sind.
In der vorliegenden Arbeit wurden 12 Biopsien von ALS Patienten qualitativ und quantitativ beurteilt. Nur ein Teil der Patienten wies klinisch Sensibilitätsstörungen auf, Patienten mit Erkrankungen, die bekanntermassen polyneuropathische Schädigungen verursachen können, wurden ausgeschlossen. Es zeigte sich, dass einige der Biopsien (9 von 12 Fällen) qualitative und quantitative Veränderungen aufwiesen, die sich als primär neuronale und/oder axonale Schädigungen interpretieren lassen. In 3 von 12 Fällen fand sich quantitativ ein Normalbefund, bei 2 von diesen 3 Fällen auch qualitativ. Die typischerweise bimodalen Faserdurchmesserhistogramme der myelinisierten Fasern waren nach links verschoben. Diese Verschiebung war am ersten Gipfel deutlicher ausgeprägt als am zweiten Gipfel. Die grössten Fasern fehlten oftmals. Auch die als insgesamt noch normal befundete 3 Biopsien von ALS Patienten hatten, den ersten Gipfel betreffend, Veränderungen, die in die gleiche Richtung gingen, sich jedoch statistisch nicht signifikant von den Kontrollen unterschieden. Die Verteilung der Axondurchmesser ist, wenn auch weniger ausgeprägt, ebenfalls nach links verschoben. Die Befunde, mit besonderer Berücksichtigung der auffallenden Veränderungen an den kleinen Fasern, sprechen für ein vermehrtes Vorkommen von Regeneraten und remyelinisierten Fasern, evtl. in Kombination mit axonaler Atrophie. Es ergeben sich im Vergleich mit den dazu veröffentlichten, z. T. untereinander divergierenden Daten von sechs Arbeitsgruppen einige Übereinstimmungen. Dadurch wird deutlich, dass es sich bei den Veränderungen am N. suralis bei ALS um einen Prozess mit axonaler Atrophie, konsekutiver Bildung von Regeneraten und sekundärer De- und Remyelinisierung handelt. Unterschiede zwischen den verschiedenen Studien bestehen in der Beurteilung des Anteils an Regeneraten und Remyelinisierungen an den kleinen Fasern und damit welchen Anteil axonale Veränderungen gegenüber der Neuronopathie an der Ätiologie der ALS haben. Die vorliegenden Ergebnisse betonen die axonale Komponente der Erkrankung. Eine Beteiligung des sensiblen N. suralis am pathologischen Prozess bei ALS konnte somit in den meisten Fällen (9 von 12 Fällen) nachgewiesen werden. Die pathologischen Veränderungen unterscheiden sich qualitativ nicht von den in autoptischen Studien gefundenen Veränderungen im motorischen System; sie sind jedoch viel milder ausgeprägt. Es kann somit davon ausgegangen werden, dass die Veränderungen des N. suralis bei ALS frühere pathomorphologische Krankheitsstadien repräsentiere, als die im motorischen System gefundenen. Da der N. suralis zu diagnostischen Zwecken entnommen wird, sind diese Ergebnisse auch von diagnostischer und differentialdiagnostischer Relevanz, insbesondere in der Abgrenzung zu den Polyneuropathien.
In diesen kurz bis mittelfristig erhobenen Daten hatte sich das LCS Kniegelenkssystem als Kniegelenkersatz bewährt. Die Indikation war breit zu stellen. Achsenabweichungen in der Frontalebene bis 30° und Instabilitäten des Seitenbandapparates bis 15° konnten mit dieser Endoprothese korrigiert werden. Die chronische Polyarthritis, auch mit kompletten Befall des Bewegungssystems, mit den Folgen von Muskelschwäche, Bänderdestruktion und Osteoporose wurde erfolgreich mit diesem Implantat versorgt. Gelenknahe Destruktionen mit Schwächung des implantattragenden Knochens durch starke Osteoporose oder zystische Defekte, ließen sich unter Auffüllung mit autologer Spongiosa und Verankerung des Implantates mit Zement operativ beherrschen. Die Verwendung der zementfrei zu implantierenden Version mit poröser Oberfläche zeigte radiologisch enge Knochenimplantatverbindung. Die Ergebnisse unterschieden sich kumulativ von den zementierten Fällen kaum. Die knochenresektionssparende Implantationstechnik bot bei einem notwendig werdenden Ausbau breiten Rückzug auf andere Modelle. Bei den implantatkritischen Komponenten, Tibiaplateau und Retropatellarersatz, wurde zur Verankerung der tibialen Komponente ein zentraler Fixationsstem verwendet. Nach dem Prinzip der low friction sind Plateau und rotierende Patella "metalbacked". Allerdings wurde wegen des Verdachts eines KnochenMetall Kontaktes bei der rotierenden Patellaversion zuletzt die Versorgung mit einem einfachen retropatellaren Knopf favorisiert. In den fünf Fällen bikompartimenteller Versorgung zeigte sich ein ausgezeichnetes Ergebnis hinsichtlich Schmerzreduktion und Fähigkeit zum Treppensteigen. Die radiologische Auswertung zeigte keine Korrelation zwischen Saumbildung und klinischem Resultat. Eine durchgehende Saumbildung mit Positionsänderung der Prothese, also radiologische Lockerung, fand sich nicht. Ebenso zeigte sich keine Dislokation der Polyäthylenlager an Patella und Tibia. Die Rate revisionsbedürftiger Fälle lag bei 10%. Darunter fielen drei TEPWechsel und drei Fälle operativer Lysen bei fibröser Steife. Bei der klinischen Untersuchung des Patientengutes war in keinem Fall eine massive dorsale Subluxation in 90° Beugung bzw. diesbezüglich eine Beschwerdeangabe durch den Patienten zu erheben. Ebenso zeigte sich keine massive Aufklappbarkeit bei Valgus oder Varusstreß. Die Achsenverhältnisse konnten in fast allen Fällen befriedigend wiederhergestellt werden.
In der vorliegenden Arbeit wurde ein durch Zellschrumpfung aktivierter nichtselektiver Kationenkanal, der in der M1 Sammelrohrzellinie der Maus bereits früher beobachtet worden war [Volk et al., 1995], hinsichtlich seiner Selektivität, seines Inhibitorspektrums und seines Aktivierungsmechanismus mittels der Patch ClampTechnik näher charakterisiert, und es wurde geprüft, ob dieser oder ein ähnlicher Kanal auch von anderen Zellinien exprimiert wird, wobei außer epithelialen Zellinien (HT 29 , BSC1) auch solche aus Muskel (A10) und Ner vengewebe (Neuro2a) untersucht wurden. Zellschrumpfung in symmetrischer NaClLösung mit Zusatz von 100 mM Saccharose im Bad stimulierte einen von Kationen getragenen Einwärtsstrom. Während der initialen Phase der Aktivierung durch extrazelluläre Hyperosmolarität konnten Schaltvorgänge von Einzelka nälen beobachtet werden. Die Einzelkanalleitfähigkeit in den verschiedenen Zellinien betrug 15 bis 27 pS. Der Strom stieg nach wenigen Minuten um das 30 bis 60fache an. Austausch des extrazellulären Natriums durch das schlecht permeierende NMDG führte zum kompletten Sistieren des Einwärtsstroms. Die Aktivierung des nichtselektiven Kationenstroms war unab hängig von der absoluten Osmolarität der Badlösung. Sie wurde ausschließlich durch osmo tisch bedingte Volumenabnahme (Schrumpfung) der Zellen hervorgerufen, wobei die Zell schrumpfung der Aktivierung des Stroms geringgradig vorauseilte. Die Aktivierung durch Zellschrumpfung war reversibel und konnte mit dem gleichen Zeitverlauf und mit der glei chen Leitfähigkeitszunahme auch zweimal hintereinander ausgelöst werden. Die stimulierte Kationenleitfähigkeit war hochselektiv für Kationen über Anionen, aber nichtselektiv für die monovalenten Kationen NH 4 , Natrium, Kalium und Lithium (Leitfähig keitssequenz NH 4 > Na > K > Li ). Für divalente Kationen wie Kalzium und Barium war keine Leitfähigkeit meßbar. Flufenaminsäure (100 µM) hemmte den stimulierten Einwärts strom um mehr als 80 %, Diphenylamin2Carboxylsäure (DPC) und sein Derivat Dichlor DPC (DCDPC) hatten einen etwas geringeren Hemmeffekt. Noch schwächer hemmte LOE 908. Amilorid, Quecksilber und Bumetanid hatten praktisch keine Hemmwirkung auf den stimulierten Einwärtsstrom. Maitotoxin, ein Aktivator mancher nichtselektiver Kationenka näle, hatte unter isoomotischen Bedingungen keine stimulatorische Wirkung auf den Strom. Im Gegensatz zum Ca 2 aktivierten nichtselektiven Kationenkanal, der in exzidierten Membranflecken beobachtet wird, war die Aktivierung des schrumpfungsinduzierten nicht selektiven Kationenkanals unabhängig von der zytoplasmatischen Ca 2 Konzentration. Das Ausmaß der Stimulation war allerdings vermindert, wenn die Pipettenlösung hohe Konzen trationen von Kalziumchelatoren (10 mM EGTA oder 10 mM BAPTA) enthielt. Dagegen hemmte Magnesiumentzug die Antwort auf Zellschrumpfung fast vollständig. ATP in Kon zentrationen bis 10 mM in der Pipettenlösung konnte die Aktivierung des Einwärtsstroms nicht verhindern, nur reduzieren. Dagegen unterdrückte ATPVerarmung der Zellen (durch Inkubation mit Rotenon und 2Deoxyglukose) die Antwort auf Zellschrumpfung völlig. Auch durch Zusatz von 1 mM ATP zur Pipettenlösung konnte die Antwort in ATPverarmten Zel len nicht wiedergewonnen werden, obwohl die Zellen nach Auswaschen der Stoffwechsel gifte wieder normal reagierten. Die Proteinkinasehemmstoffe Staurosporin und Calphostin C (beide in der Konzentration von 1 µM) konnten die Antwort unterdrücken. Einige auf das Zytoskelett wirksame Substanzen (Cytochalasin D und Taxol) hatten ebenfalls hemmende Wirkungen. Die Befunde der vorliegenden Arbeit zeigen, daß der schrumpfungsaktivierte nichtselekti ve Kationenkanal offenbar ubiquitär exprimiert wird. Der Aktivierungsmechanismus ist kom plex und abhängig von intrazellulärem ATP und Magnesium. Vermutlich sind Proteinkinasen und Zytoskelettelemente an der Kanalaktivierung beteiligt. Der Kanal dürfte im Rahmen der Zellvolumenregulation von Bedeutung sein und spielt möglicherweise eine Rolle für Zellpro liferation und Apoptose.
Das Endstadium der chronischen Abstoßungsreaktion ist die sogenannte Transplantatarteriosklerose. Zu den hierzu beitragenden Mechanismen zählen die Aktivierung des HLASystems und die unkontrollierte Induktion und Freisetzung von Zytokinen wie TNFa, IL1ß, IL2 etc. (Cerami 1992). Dieser permanente Entzündungsreiz unterliegt nach Monaten oder Jahren einer gewissen Autonomie (Tracey et al. 1988; Yin et al. 1993). Die Freisetzung von Zytokinen aus TLymphozyten wird jedoch durch CSA, ein anerkanntes Immunsuppressivum, nur zeitweise unterdrückt (GranelliPiperno, Inaba und Steinmann 1984). Gleichzeitig wird durch eine Sensibilisierung sowohl der glatten Muskelzellen der Gefäßmedia als auch der Endothelzellen der Intima eine Aufregulierung der Zytokinrezeptoren induziert und somit der CSAWirkung entgegengewirkt (Russel et al. 1995). Die Rolle der glatten Muskelzellen sowie der Einfluß des Endothels im pathophysiologischen Geschehen der chronischen Transplantatabstoßung ist in vivo schwer faßbar und sollte in einem in vitro Ansatz näher charakterisiert werden. In der vorliegenden Arbeit wurden humane glatte Muskelzellen aus der menschlichen Nabelschnur isoliert und die Kulturbedingungen für diesen Zelltyp zunächst optimiert. Durch immunzytochemische Markierungen wurden die Zellen identifiziert. Die glatten Muskelzellen wachsen zu einem konfluenten Monolayer und zeigten bei regelmäßiger Subkultivierung eine exponentielle Wachstumsphase. In anschließenden Experimenten wurden diese Zellen verschiedenen Entzündungsmediatoren ausgesetzt und die Proliferationsrate mit Hilfe des [ 3 H] Thymidineinbaues bestimmt. Zur Anwendung kamen Endothelin1, Interleukine und Tumornekrosefaktor a. Die stärksten Wachstumsstimulatoren waren TNFa (2,5 ng/ml), IL1ß (50 U/ml) und Eth (0,1 µg/ml). Die Wachstumsraten wurden um ca. 2535 % gegenüber der Kontrolle gesteigert. Mit TNFa und IL1ß in den gleichen Konzentrationen wurden auch additive Effekte gefunden. Zur Beschreibung der intrazellulären Signalwege, die durch die Einwirkung der verschiedenen Substanzen aktiviert werden, wurden in einem weiteren Ansatz die Proteinkinase C (PKC) durch Staurosporin sowie die Tyrosinkinase (TK) durch Genistein inhibiert. Es konnte nachgewiesen werden, daß vorwiegend die PKC für die Induktion der Proliferation durch TNFa oder IL1 verantwortlich ist. Der Einfluß von Cyclosporin A (CSA) unter den Stimulationsbedingungen war nun von besonderem Interesse. Es zeigte sich keine deutliche Hemmung der zytokin induzierten Proliferation durch CSA im Vergleich zur Kontrolle. Da die Zellen im natürlichen Gewebeverband einer gegenseitigen Wachstums kontrolle unterliegen, wurde in einem zusätzlichen Ansatz Kulturüberstand von Endothelzellen, die ebenfalls aus der Nabelschnur isoliert wurden, mit den glatten Muskelzellen inkubiert. Dieser Überstand wurde nach 3 Tagen von den Endothel zellen gewonnen und hemmte in Konzentrationen von 1% und 10% das Wachstum der glatten Muskelzellen. Wurden die Endothelzellen mit TNFa stimuliert (vorinkubierter Überstand), so hatte dieser Überstand eine ähnliche Wirkung auf glatte Muskelzellen. Am deutlichsten konnte in dieser Versuchsserie gezeigt werden, daß die glatten Muskelzellen für eine zusätzliche TNFaStimulation (2,5 ng/ml) sensibilisiert werden, wenn sie mit dem TNFa vorinkubierten Endothelzellüberstand versetzt wurden. Die zelluläre Aktivierung durch Zytokine wird über die Proteinkinase C vermittelt. Cyclosporin A hat keine protektive Wirkung auf die zytokinvermittelte Zellaktivierung bei den untersuchten humanen glatten Muskelzellen.
In dieser Arbeit wurden die Periventrikuläre Leukomalazie und die Perinatale Telenzephale Leukoenzephalopathie analysiert. Aus neuropathologischer Sicht sind diese beiden Krankheitsbilder deutlich voneinander abgrenzbar. Die PVL zeigt nekrotische Veränderungen, Axonauftreibungen, Astrogliose, Gitterzellen und ausschließlich eine Begrenzung auf die weiße Marksubstanz. Da die Veränderungen so deutlich und massiv sind, sich gut durch bildgebende Verfahren darstellen und mit klinischer Symptomatik korrelieren lassen, hat die PVL in der Klinik die größere Bedeutung. Dies wird in Zukunft auch so bleiben, und durch die Verbesserung der bildgebenden Verfahren in Kombination mit indirekten diagnostischen Möglichkeiten (EEG, Doppler, Sehtests) wird die Erkennung der PVL eine immer größere Rolle spielen. Die Neuropathologie wird sich wohl in Zukunft mit der terminologischen Unterscheidung zurechtfinden und diese beiden Krankheitsbilder genauer voneinander differenzieren müssen. Da durch die Autopsie das Gehirn viel genauer untersucht werden kann als mit bildgebenden Verfahren, ist eine genauere Differenzierung der einzelnen Fälle möglich. Wie in dieser Arbeit zu sehen, sind die PVL-Fälle nicht so häufig anzutreffen, wie die als PTL bezeichnete Gliose mit hypertrophen Astrozyten, akut geschädigten Gliazellen oder Amphophilen Globuli, oder auch nur mit einer dieser vergleichsweise milden Veränderungen. Wie der Fall John J. NI: 7611 Kapitel 11.10 (PTL) veranschaulicht, können auch bei diesen relativ geringen Hirngewebsveränderungen klinische Auffälligkeiten vorliegen, die nicht durch konventionelle diagnostische Maßnahmen zu erklären und zu erkennen ist. Den in der Literatur erwähnten klinischen Studien gelang es nicht, die klinischen Symptome der PVL 100 %ig mit den morphologischen Veränderungen in Einklang zu bringen. Hierbei werden nur Wahrscheinlichkeiten angegeben (siehe Kapitel 6 Diagnostik und Kapitel 7 Klinik), die den Einzelfall vernachlässigen. Es können also auch mildere pathologische Veränderungen als eine PVL zu einer klinischen Symptomatik führen. Natürlich gilt das auch umgekehrt, denn nicht jede PVL-Läsion muß zur klinischen Auffälligkeit führen. Die Wahrscheinlichkeiten einer gut diagnostizierbaren PVL mit Zysten lassen darauf schließen, daß sich klinische Auffälligkeiten manifestieren. Die Klinik ist also recht uneinheitlich und läßt für den Neuropathologen keine Rückschlüsse auf die zugrundeliegende Erkrankung zu. Wie ja bereits in Kapitel 6.7 Klinische Untersuchung erwähnt, ist die Früherkennung der Symptome von Bedeutung, um rechtzeitig fördernde Maßnahme (Physiotherapie, Mund- Eßtherapie, Sprachtherapie, psychosoziale Betreuung, Funktionstraining und Hilfsmittelversorgung) einzuleiten. Dabei kann die Diagnostik mit den verschiedenen Mitteln die Erklärung der Symptome plausibel machen, aber sie sind nicht immer korrelierbar. Selbstverständlich ist dann die klinische Symptomatik von größerer Bedeutung als die bildgebenden Verfahren. Die PTL, wie sie von Leviton und Gilles (1983) definiert ist, zeigt sich für den Neuropathologen deutlicher als für den Kliniker. Auch wenn die Autoren einen Oberbegriff schaffen wollten, legen sie sich in ihrer eigenen Arbeit von 1983 erneut fest und beschreiben die Veränderungen mit hypertrophen Astrozyten und Amphophilen Globuli als die Perinatale Telenzephale Leukoenzephalopathie (Leviton
In den bislang veröffentlichten literaturwissenschaftlichen Arbeiten zum Geldmotiv dominiert zumeist das "Entfremdungsparadigma". Das Geld wird aus soziologischer und philosophischer Perspektive als ein Motor des sozialen Wandels betrachtet, durch den soziale Beziehungen entfremdet, entmenschlicht und versachlicht werden. Bei der Lektüre dieser Arbeiten hat man zumeist den Eindruck, dass das Geld als eine Macht erscheint, die ihre Gestalt im Verlauf des 19. Jahrhunderts nicht verändert hat, die zwar scharf kritisiert worden ist, jedoch nicht im geringsten hat "gebrochen" werden können. Die vorliegende Arbeit geht hingegen davon aus, dass in literarisch gestalteten Geldmotiven nicht nur ein Aufbegehren gegen das Geld gestaltet ist, sondern dass Schriftsteller mit literarischen Werken auch an sozialen Kämpfen um die Aneignung von Geld und um den Wandel seiner Zirkulationsrichtung partizipiert haben. Während des 19. Jahrhunderts entfaltet sich ein Prozeß, der als Desillusionierung des utopischen Liberalismus bezeichnen wird. Unter "utopischer Liberalismus" wird die sich im 18. Jahrhundert formierende Doktrin verstanden, nach der es genüge, das Geld aus seinen feudalen Fesseln zu befreien, um eine sich selbst regulierenden ökonomische und soziale Prosperitätsbewegung in Gang zu setzen. Man schreibt dem ohne Schranken unreguliert zirkulierenden Geld eine soziale Harmonie herstellende gesellschaftsverändernde Kraft zu. Geld erscheint als die Verkörperung der Vernunft. Die in der vorliegenden Arbeit behandelten Autoren und Werke (Balzac, Daumier, Jarry, Vallès, Zola und andere) stellen im 19. Jahrhundert diese Sicht auf das Geld in Frage. Sie stellen dar, welche Auswirkungen die deregulierte Geldzirkulation im 19. Jahrhundert hat. Sie greifen Reformvorschläge ihrer Zeitgenossen auf, die Konzepte zu einer Regulierung der Geldzirkulation entworfen haben und sie entwickeln diese in literarischen Texten weiter. Die Wirtschaftsgeschichte Frankreichs zeigt, dass diese Gegenentwürfe einer Regulierung des Geldes erfolgreich gewesen sind. Die Geldzirkulationsspäre, die Finanzwelt und damit auch das Geld haben ihre Form im 19. Jahrhundert verändert. In der Restauration ist das unproduktive Geldkapital, das vor allem in Staatsrenten angelegt wird, die das politische und ökonomische Leben bestimmende Form des Geldes. Die Gewinne der Kapitalanleger und der Haute Banque, die die Staatsrenten profitabel verwaltet, werden finanziert, indem das Restaurationsregime und auch die Julimonarchie stetig sich verteuernde Steuern auf Konsumgüter erhebt. Den Schaden tragen das produzierende Bürgertum und die unteren Bevölkerungsschichten. Zwischen dem Beginn der Julimonarchie und der Blütephase des Second Empire gelingt es dem industriellen Bürgertum jedoch, die Geldzirkulation in ihrem Interesse zu regulieren. In der Dritten Republik führt dieser Wandel der Geldzirkulation zu einer Überakkumulation von Profiten, die dann in die Epoche des französischen Kapitalexports mündet. Frankreich wird zum Weltbankier, exportiert Geldkapital und importiert ausländische Staatsanleihen mit häufig sehr unsicherer Wertdeckung. Geld wird mehr und mehr zu einem auch fiktiven Wertzeichen. In der Arbeit wird in den unterschiedlichen sozial- und wirtschaftsgeschichtlichen Epochen exemplarisch belegt, welche konkreten Stellungnahmen zur Frage einer notwendigen Regulierung der Macht des Geldes in der Literatur zu finden sind.
Urothelkarzinome entstehen aus dem Epithel (Urothel) der unteren Harnwege (Nierenkelche und -becken, Harnleiter und -blase, sowie proximale Harnröhre). Die Harnblase ist der bevorzugte Ort der Urothelkarzinome. Krebserregende chemische Verbindungen (Karzinogene), die im Urin konzentriert vorliegen, sind Hauptverursacher der Urothelkarzinome. Größter einzelner Risikofaktor ist das Rauchen. Urothelkarzinome alarmieren durch Mikro- oder Makrohämaturie, und werden durch zytologische Bestimmung der Urinzellen (exfoliative Urinzytologie) und durch endoskopische Untersuchung der Harnblase (Zystoskopie) diagnostiziert. Es gibt kein pathognomisches Zeichen das auf ein Urothelkarzinom hinweisen würde. Da gutdifferenzierte Urothelkarzinomzellen kaum von den normalen Urothelzellen zu unterscheiden sind, ist die falsch-negative Rate bei der Diagnose dieser G 0-1 Tumoren mit 42% besonders hoch. Bei den endoskopisch schwer zu erkennenden in situ Karzinomen, die weitgehend entdifferenziert (anaplastisch) sind, liegt die Treffsicherheit bei 94%. Keiner der bis heute vorgeschlagenen Tumormarker hat die geforderte Spezifität, Sensitivität und prognostische Aussagekraft, um für die Diagnostik des Harnblasenkarzinoms von Wert zu sein. In der vorliegenden Arbeit wurde bei der Suche nach einem geeigneten Marker für den Nachweis eines Urothelkarzinoms eine Doppelstrategie verfolgt: 1. Die Expression einiger bekannter Gene wurde mit Reverser Transkription Polymerase Kettenreaktion (RT-PCR) an einer Reihe von Urothelkarzinomen unterschiedlicher Malignitätsgrade (G1 bis G4) und an normalen Urothelien untersucht. Uroplakine, die einzigen bislang bekannten urothelspezifischen Moleküle, bildeten dabei den Schwerpunkt. Ein Uroplakin-RT-PCR Bluttest wurde entwickelt, mit dem es möglich ist, disseminierte Urothelkarzinomzellen zu entdecken, noch bevor sie Metastasen gebildet haben. Die Nachweisempfindlichkeit des Tests liegt bei einer Zelle pro ml Blut. Von den untersuchten Urothelkarzinomprimärtumoren exprimierten alle gut bis mäßig differenzierten Tumoren (G1 und G2) Uroplakin (UP), bei den wenig differenzierten und anaplastischen Tumoren (G3 und G4) war etwa die Hälfte UP-positiv. 2. Die differentielle Genexpression derselben Urothelkarzinome und Urothelien wurde mittels Differential Display RT-PCR (ddRT-PCR) dargestellt, um auch unbekannte Genprodukte zu erfassen, die an der Krebsentstehung beteiligt sein und als spezifische Marker dienen könnten. Die gebräuchliche ddRT-PCR wurde durch eine Homologiedomänen-Konsenssequenz-RT-PCR ergänzt. Es konnten einige bekannte Gene identifiziert werden, darunter das DNA-bindende und transkriptionsregulierende HMG-1 (high mobility group) Protein und das mit Metastasierung assoziierte mts-1 Produkt. Einige Sequenzen zeigten keine Übereinstimmung mit bekannten Genen und sind damit potentiell neue Krebsgenkanditaten.
Im NA49-Experiment wird der hadronische Endzustand von Kern und Protonen induzierten Reaktionen gemessen, um die Eigenschaften von Kernmaterie unter extremen Bedingungen zu untersuchen. Dabei stellt die Flugzeitmessung ein wichtiges Instrument zur Teilchenidentifizierung dar. Der von Yu.N. Pestov 1971 erstmal vorgestellte und nach ihm benannte Pestov-Zähler ist ein gasgefüllter Parallelplatten-Zähler, der im Funken/Überschlag-Modus betrieben wird. Die Besonderheit dieses Zählers ist die Lokalisierung der Entladung, die durch eine Anode aus halbleitendem Glas mit einem hohen spezifischen Widerstand und ein Zählgas mit großer Photonen-Absorption erreicht wird. In der Protonenstrahlzeit 1997 wurde der PesTOF-Detektor (Pestov Time Of Flight) bestehend aus zwölf einzelnen Zählern, erstmals im Vertex-1 Magneten des NA49-Experimentes eingesetzt. Neben der guten Zeitauflösung sind die Unempfindlichkeit gegenüber dem magnetischen Feld und die gute Ortsauflösung die auch bei großen Spurdichten ein korrektes Zuordnen der Treffer ermöglicht, die Voraussetzungen für diesen Einsatz. Der kinematische Akzeptanzbereich für die Identifikation von Pionen liegt bei Rapiditäten von y ~ 2-5 - 3 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Akzeptanzbereich der Kaonen liegt bei einer Rapidität von y ~ 2 und Tranzversalimpulsen von pt <= 500 MeV/c. Der Detektor konnte über den gesamten Zeitraum stabil und zuverlässig betrieben werden. Die gemessene gaußförmige Zeitauflösung beträgt 78 ps, wobei die Hochspannung die 1.5fache Schwellenspannung betrug. Neben dem gaußförmigen Anteil der Zeitauflösung zeigt der Detektor jedoch auch einen asymmetrischen nicht gaußförmigen Anteil ("Tail"). Aufgrund einer verzögerten Funkenentwicklung im Zähler liegen etwa 12.6% der Signale außerhalb der gaußförmigen Verteilung bzw. sind etwa 4% der Signale um mehr als 500 ps verspätet. Neuere Untersuchungen mit anderen Zählgasen und Zählergeometrien haben gezeigt, dass der Anteil der verzögerten Signale in Zukunft deutlich reduziert werden kann. Der Verlauf der gemessenen pt und mt-Verteilungen der identifizierten Kaonen und Pionen kann durch Simulationen mit dem VENUS-Modell reproduziert werden. Mit der möglichen Verbesserung der Zeitauflösung und dem geplanten Ausbau des PesTOF-Detektors mit bis zu 80 einzelnen Zählern wird der Impuls- und Akzeptanzbereich, in dem Teilchen identifiziert werden können, deutlich vergrößert werden. Die Messungen dieser Arbeit geben einen Ausblick darauf dass es in Zukunft möglich sein wird, relevante physikalische Größen mit dem PesTOF-Detektor im NA49-Experiment zu messen. Insbesondere in nicht symmetrischen Stoßsystemen ist der Einsatz von Flugzeitdetektoren in dem rückwärtigen kinematischen Bereich der Reaktion interessant. Mit den in dieser Arbeit gefundenen positiven Eigenschaften und den sich abzeichnenden Modifikationen am Zählgas und Zähler ist der Pestov-Zähler ein interessanter Detektor für zukünftige Experimente.
Die Bedeutung der Apoptose und die zugrundeliegenden Mechanismen in verschiedenen pathophysiologischen Zuständen des Herzens sind noch weitgehend ungeklärt und es bleibt zu zeigen, daß die Apoptose-Signaltransduktion ähnlich reguliert wird, wie aus in vitro-Versuchen bekannt ist. Deshalb wurde die Apoptose in verschiedenen Tiermodellen kardialer Erkrankungen untersucht werden, um Hinweise auf die zugrundeliegende Signal-transduktion, durch Analyse der Proteine Bcl-2 und Bax, der finalen Exekutor-Caspase Caspase-3 oder p53 zu bekommen. Apoptose in der durch Hyperlipidämie induzierten Atherosklerose: In Aorten von 'Froxfield Heritable Hypercholesterolemic'-Kaninchen (genetische Hyperlipidämie) korrelierte die Apoptose von vaskulären glatten Muskelzellen und Makrophagen in fortgeschrittenen fibrösen Plaques mit einem 18-fachen Anstieg des proapoptotischen Bax. In Aorten Cholesterin gefütterter 'New Zealand White'-Kaninchen (0,25% Cholest., 12 Wochen) konnte eine erhöhte Baxexpression in Endothelzellen nachgewiesen werden, ohne daß morphologische Veränderungen zu beobachten waren. Die Apoptose in akut abgestoßenen allogenen Herztransplantaten (Rattenmodell) war von einer erhöhten Bax-Expression und einer totalen, posttranslationalen Degradation des antiapoptotischen Bcl-2 in ein spezifisches Degradationsprodukt durch eine Serinprotease gekennzeichnet. Die Rolle des wichtigen kardiovaskulären Mediators Stickstoffmonoxid (NO) auf die Apoptose wird kontrovers diskutiert. Da in der Zellkultur protektive Effekte von NO gezeigt werden konnten, wurde deren physiologische Relevanz in der durch Ischämie/Reperfusion induzierten Apoptose ex vivo im Langendorff-Rattenherzen untersucht. Es konnte gezeigt werden, daß Hemmung der endogenen NO-Synthese mit L-NG-Monomethyl-L-Arginin (LNMMA, 1mM) die Apoptose potenzierte und mit einer Aktivierung der Caspase-3 korrelierte. Bcl-2 und Bax wurden nicht reguliert. Untersuchung der Regulation der Proteinexpression der eNOS (endotheliale NO-Synthase) durch den proinflammatorischen/ proatherogenen Tumor-Nekrose-Faktor-[Alpha] (TNF[Alpha]) in der Endothelzellkultur (HUVEC) gaben Hinweise auf einen, die eNOS schützenden, Interaktionspartner. Zusammenfassend konnte in allen untersuchten Modellen für Herz(-Kreislauf)-Krankheiten Apoptose nachgewiesen werden, die jeweils spezifische Charakteristika zeigt, deren genauere Aufklärung interessante Ziele zukünftiger präventiver und therapeutischer Maßnahmen verspricht. Die Befunde weisen zudem auf antiapoptotische Effekte von NO - insbesondere durch die endotheliale NO-Synthaseaktivität - hin, deren genauere Charakterisierung dazu beitragen könnte, pathophysiologische Zustände der kardiovaskulären Biologie zu erklären.
Hauptziel dieser Arbeit war die Etablierung einer Methode zur Isolierung und Kultivierung proximaler und distaler Tubuluszellen der menschlichen Niere. Dabei wurde neben einer hohen Zellausbeute besonderer Wert auf die Reinheit der Nierenzellkulturen gelegt. Um dieses Ziel zu erreichen wurden mehrere Isolationsschritte hintereinander durchgeführt. Um eine homogenen Zellsuspension aus dem Nierenexzisat zu erhalten wurde eine mechanische Zerkleinerung und anschließend eine enzymatische Andauung durchgeführt. Dabei war ein Enzymgemisch aus Collagenase IV und DNase I mit nachfolgender Andauung mit Hyaluronidase am erfolgreichsten. Um größere Zellverbände auszuschließen wurde das Zellgemisch anschließend durch ein Stahlsieb filtriert. Durch die Percoll Dichtegradientenzentrifugation konnten die Zellen in einem weiteren Schritt separiert werden. Dadurch konnten z.B Erythrozyten, Granulozyten und ein Teil der Lymphozyten verworfen werden. Durch die unterschiedliche Antigenstruktur der Oberflächenmembran proximaler und distaler Tubuluszellen konnten mit Hilfe von monoklonalen Primär und Sekundärantikörpern, welche magnetisch markiert waren, die proximalen und distalen Tubuluszellen separiert werden. Mit Hilfe dieses immunomagnetischen Verfahrens wurden erstmals proximale und distale Tubuluszellen der menschlichen Niere in hoher Reinheit und Vitalität isoliert. Damit zeigte sich dieses Verfahren, welches bisher fast ausschließlich zur Isolierung von Blutzellen eingesetzt wurde, auch bei der Isolierung von Tubuluszellen der menschlichen Niere als erfolgreich. Die zu verschiedenen Zeitpunkten der Zellisolierung eingesetzte Immunfluoreszenzfärbung zeigte, im Vergleich zum Durchlicht, nach der Percoll Dichtegradientenzentrifugation eine Markierung von ca. 30% der Zellen. Nach der Separierung der Zellen durch die Microbeads waren fast alle Zellen (95%) markiert. Die sich anschließende Kultivierung proximaler und distaler Tubuluszellen zeigte ein einheitliches Wachstumsmuster. Beide Zellarten zeigten nach 3-4 Tagen die Bildung kleiner Kolonien, und nach 7-10 Tagen die Bildung eines homogenen Monolayers. Nach ca. 20 Tagen zeigten die Zellen eine stärker werdende Granulierung des Zytoplasmas. Nach ca. 30 Tagen stellten die Zellen das Wachstum ein und starben ab. Um die Kulturen der proximalen und distalen Tubuluszellen zu charakterisieren wurden zu verschiedenen Zeitpunkten Immunfluoreszenzfärbungen, und Enzymbestimmungen im Überstand und auf den Zellen direkt durchgeführt. Dabei konnten die charakteristischen Enzymmuster und Oberflächenantigene nur für eine Zeitspanne von ca. 7 Tagen in Kultur nachgewiesen werden.
Schlaginstrumente waren, trotz ihrer großen Vielfalt und der damit verbundenen Mannigfaltigkeit der Spieltechniken und Ausdrucksmöglichkeiten, über Jahrhunderte hinweg kein Gegenstand von musikpädagogischen Bestrebungen hinsichtlich einer didaktischen Erfassung des Percussionsinstrumentariums in Form von Schlagzeugschulen. Einer der Gründe dafür könnte ein sehr verbreitetes Vorurteil gegenüber dem Schlagzeug gewesen sein, demzufolge man dieser Instrumentenfamilie jegliche musikalische Selbständigkeit absprach und in die Rolle eines schlichten Begleitinstrumentes zu verbannen versuchte. Nicht zufällig schrieb der Musiktheoretiker Sebastian Virdung in seinem 1511 erschienenen Musiktrakat Musica getutscht über die Pauken: Diese baucken alle synd wie sye wellen, die machen vil onruwe den Erben frummen alten leuten, den siechen und krancken, den andechtigen in den clöstern, die zu lesen, zu studieren und zu beten haben, und ich glaub und halt es für war, der teufel hab die erdacht und gemacht, dann gantz kein holtseligkeit noch guts daran ist, sunder ein vertempfung und rin nydertruckung aller süßen melodeyen und der gantzen Musica... Eine noch schlimmere Meinung über alle Schlaginstrumente äußerte Michael Praetorius in seinem Traktat aus dem Jahre 1619, in dem er die Pauken und andere Muscowitersche, Türckische, seltzame frembde Instrumenta als Lumpeninstrumente bezeichnete, die zur Music nicht eigentlich gehören und wo unnötig ist, darvon etwas zu schreiben oder zu erinnern. Heutzutage stellt man mit Leichtigkeit fest, daß sich die Rolle der Schlaginstrumente grundlegend geändert hat und daß sie ein wesentlicher Bestandteil aller Musikrichtungen geworden sind. Neben dem Jazz und Pop, gehört zu ihren wichtigsten Einsatzgebieten der Bereich der E – Musik, in dem von einem Schlagzeuger das Beherrschen des sog. Klassischen Schlaginstrumentariums verlangt wird. Die Berufsausbildung eines Schlagzeugspielers erfolgt fast ausnahmslos an Musikhochschulen, wo in Anlehnung an Schlagzeugschulen spieltechnische und musikalische Kenntnisse erworben werden. Im Gegensatz zu anderen Instrumentalschulwerken, die auf eine längere Entwicklungsgeschichte zurückblicken und bei denen es zur Etablierung von allgemein akzeptierten und erprobten Unterrichtswerken gekommen ist, herrscht in der Didaktik des Schlagzeugunterrichts keine einheitliche Meinung hinsichtlich der Verwendung von bestimmten Unterrichtsmaterialien. Die vorliegende Arbeit stellt daher einen der ersten Versuche dar, aktuelle Schlagzeugschulen einer kritischen Untersuchung hinsichtlich ihrer Eignung für den Einsatz im modernen praxisbezogenen Unterricht zu unterziehen und zugleich einen Überblick über die gegenwärtige Unterrichtsliteratur im Fach Klassisches Schlagzeug zu verschaffen.
Bei einer Behandlung mit festsitzenden Apparaturen stehen für Zahnverschiebungen in mesio-distaler Richtung und zur Okklusionseinstellung seit 1993 als Alternative zu Gummiringen aus Latex Zugfedern aus der Nickel-Titan-Legierung Sentalloy zur Verfügung. Die vorliegende Untersuchung zeigt die materialtechnischen Besonderheiten der beiden Werkstoffe auf und beschreibt die Vor- und Nachteile in der klinischen Anwendung der Gummizüge und der Federn. Es wurden Gummizüge aus Latex von Ormco Dental (Glendora) in den Grössen 3/16, 1/4 und 5/16 inch in jeweils drei verschiedenen Stärken sowie pseudoelastische, Ni-Ti-Federn von GAC Int. Inc. (New York) untersucht. Dazu wurden in der Universalprüfmaschine Zwick 1421 die Kennlinien der verschiedenen Kraftelemente aufgezeichnet. Darüber hinaus wurde der Kraftabfall der Gummizüge durch isometrische Dehnung und durch Wechsellastversuche bestimmt sowie der Einfluss einer thermischen Alterung auf die Gummizüge untersucht. In einem Wechsellastversuch mit pseudoelastischen Federn wurde die Anzahl der Federbrüche innerhalb von 480.000 zyklischen Belastungen registriert. Die untersuchten Gummizüge zeigten eine für elastische Materialien typische Hysterese form der Kennlinie. Die Kennlinien pseudoelastischer Zugfedern wiesen eine Transformationshysterese mit einer über mehrere Millimeter annähernd konstanten Kraftabgabe auf. Bei Dehnung von Gummizügen derselben Grösse zeigten stärkere Gummizüge grössere Abweichungen in der Kraftentfaltung als schwächere Gummizüge. Insgesamt lagen solche Streubreiten zwischen 26% und 33%. Bei Dauerbelastung der Gummizüge blieb die Kraftabgabe der Gummizüge nach geringem initialen Abfall annähernd konstant. Es wurde nachgewiesen, dass die Kraftabgabe der Gummizüge bei isometrischer Dehnung innerhalb von 24 Stunden zwischen 8% und 15% fällt. Bei Wechsellastversuchen mit insgesamt 30.000 Lastwechseln verloren die Gummizüge etwa 10% - 15% ihrer Ursprungskraft. Thermische Alterung zeigte keinen Einfluss auf die Kraftentfaltung der Gummizüge. Grundsätzlich wiesen beide Materialien eine Temperaturabhängigkeit der Kennlinie auf. Während sich bei beiden Materialien die Hysteresefläche der Kennlinie bei höheren Temperaturen verschmälert, wird bei pseudoelastischen Federn zudem das Plateau der Kennlinie zu deutlich höheren Kraftwerten hin verschoben. Im Wechsellastversuch mit pseudoelastischen Federn kam es trotz gleichförmiger, axialer Belastung häufig zum spontanen Bruch der Federn. Die Kennlinie wies nach Wechselbelastung eine schmalere Hysteresefläche und ein zu geringeren Kraftwerten hin verschobenes Plateau der Kennlinie auf.
Das ebenso schnelle wie unspektakuläre Ende der fast ein halbes Jahrhundert andauernden globalen Auseinandersetzung zwischen den divergierenden Gesellschaftssystemen im Rahmen des Kalten Krieges hat das wissenschaftliche Interesse der Geschichtsforschung zunehmend auf die Phase der Entstehung und Formierung dieses Konflikts gelenkt. Ein wichtiger Teilaspekt in der Formationsphase des Kalten Krieges war die Planung und Durchführung der Aufstellung von Streitkräften in der Bundesrepublik Deutschland und der Deutschen Demokratischen Republik und deren Integration in die antagonistischen Bündnissysteme NATO und Warschauer Pakt, die fast zeitgleich Mitte der 50er Jahre ihren völkerrechtlich verbindlichen Abschluß fanden. ...
Die wirtschaftshistorische Arbeit beleuchtet und analysiert Aspekte aus der Unternehmens -,Regional- Technik- und Branchengeschichte und nutzt umfangreiches Quellen - und Zahlenmaterial aus Firmen- und Staatsarchiven und zeitgenössischer Literatur. Einige ältere Publikationen über die Eisenregion gibt es, die aber den Strukturwandel und die Gießereien. garnicht oder nur am Rande abhandeln. Wichtigste Quellen sind Bestände des Archivs Frank'sche Eisenwerke, Dillenburg und weitere durch das Hessische Wirtschaftsarchiv Darmstadt übernommene Firmenakten. Das im Lahn-Dill-Gebiet teilweise schon seit dem 15.-18. Jh. bestehende Eisengewerbe auf der Basis reicher Eisenerzvorkommen, größerer Waldungen für Holzkohle und von Wasserkraft, geriet ab dem 2. Drittel des 19. Jh. in Schwierigkeiten. Nach einer Aufschwungphase durch steigenden Eisenbedarf etwa von 1815-1835, mit Neugründungen und Kapazitätserweiterungen, entstand durch den Importdruck von erheblich billigerem englischen und belgischen Eisen ab 1840 eine ernsthafte Krise für die Eisenwerke. Englisches und belgisches Roheisen wurde schon seit Ende des 18. Jh. durchweg mit Steinkohlekoks kostengünstig erblasen. Hinzu kamen dort bessere Rahmenbedingungen durch gute Verkehrserschliessung, ausreichende Kapitalversorgung und grössere Betriebseinheiten u.a.m. Die Eisenindustrie des Lahn-Dill-Gebietes (Herzogtum Nassau, Teile des Großherzogtums Hessen-Darmstadt und die preußische Enklave Wetzlar) war dagegen bei Einrichtungen und den Standorten im Nachteil. Die überholte Erzeugung von Roheisen in Holzkohlehochöfen, schlechte Verkehrsanbindung, vielfach zu kleine Familienbetriebe mit schmaler Eigenkapitalbasis und unzureichende Nutzung von Fremdkapital waren weitere Defizite. In der Wirtschafts- und Eisenkrise der 1840er Jahre verschärfte sich die Lage. Vom Staat eingeforderte Schutzzölle brachten nur geringe Abhilfe. Erst das Nachlassen des Importdrucks ab Anfang der 1850er Jahre und eine bessere Wirtschaftslage verschafften den Werken bis zur Krise am Ende der 1850er Jahre eine gewisse Atempause. Diese wurde aber im Lahn-Dill-Gebiet nicht dazu genutzt, die Umstrukturierung auf Steinkohlehochöfen und besonders auf mehr Verarbeitung zu Eisenguß voranzutreiben. Wenn auch die Eisenunternehmer wußten, daß man sich umstellen mußte, verhielten sie sich noch lange abwartend und zögerten bei Neuinvestitionen, wobei auch die Abneigung der Aufnahme fremden Kapitals bei den Eisenfamilien eine Rolle spielte. Hervorzuheben ist, daß durch die weitgehende Privatisierung der Eisenhütten von 1800-1860, der Kampf von Unternehmern ums Überleben wirkungsvoller war, als es bei einer staatlichen Regie möglich gewesen wäre Versäumt wurde allerdings, durch einen großen Verbund fast aller Eisenwerke, wie von der Bank für Handel und Industrie, Darmstadt und der Mitteldeutschen Credit-Bank, Meiningen vorgeschlagen, eine rationellere Unternehmensgruppe zu schaffen. Kostenvorteile durch einzelne Zusammenschlüsse und Zukäufe wie bei Buderus, dem Hessisch-Nassauischen-Hüttenverein und den Burger Eisenwerken brachten Kostenreduzierungen wie auch "Teil"-Rationalisierungen, sowie technische "Teil" Modernisierungen Durch (trügerisches) Vertrauen auf Qualitätsvorteile des Holzkohleneisens und bei im Gegensatz zu anderen Regionen günstigerer Holzversorgung blieben die Unternehmen noch bis in die 1880/90er Jahre bei Holzkohle als Brennstoff. Außerdem wollte man wegen der eigenen ergiebigen Erzgruben auch noch nicht die Roheisenerzeugung zugunsten eines reinen Gießereibetriebes aufgeben. Nur Buderus führte ab den 1860/70er Jahren die Steinkohlenverhüttung ein, setzte aber zu stark auf Roheisenproduktion und vernachlässigte den Eisenguß. Das war wegen des Aufkommens des Flußstahls riskant und führte zu einer ernsten Krise des Hauses in den 1880/90er Jahren. Die anderen mittelständischen Betriebe ließen sich zur Steinkohlenverhüttung noch nicht "verleiten", was auch mit erheblichen Risiken verbunden gewesen wäre und warteten weiter ab, bedingt auch durch familiäre Strukturen der Firmen. So retteten sich über die Konjunkturschwankungen der 1870/80er Jahre, bis sie dann endgültig meist ganz auf Gießereibetrieb umstellten. Dabei kamen Ihnen Markt - und Produktkenntnisse in diesem schon länger betriebenen Fabrikationszweig zugute. Erst ab ca. 1890 nutzten sie voll die Möglichkeiten der Kupolofentechnik, durch 2. Schmelzung auswärts günstig gekauftes Roheisen für die Eisengußproduktion einzusetzen. Der Produktions-Schwerpunkt der meisten Werke auf der Fabrikation von Herden, Öfen, Poterie war aber kein Nachteil. Die Region war hierfür bekannt, hatte etwa 40-50% Marktanteil, auch durch verbesserte Öfen und es bestand steigender Bedarf. Dauerhaft erfolgreicher waren allerdings Firmen wie Buderus und die Michelbacher Hütte, die sich mit "neuen" Produkten wie Zentralheizungs - und Kanalisationsguß, Röhren, schwerem Maschinen- und Sanitärguß befaßten, unterstützt durch eigene Erfindungen und Investitionen in neue Produktionseinrichtungen. Wichtiger als Standortbedingungen waren durch fortschrittliche Gießereitechnik kostengünstig hergestellte und den Markterfordernissen angepaßte Produkte aufgrund konsequenter Strategien von Unternehmern aber auch leitenden Angestellten, wie Generaldirektor Kaiser bei Buderus. Von 1905 - 1912 stabilisierten sich besonders die Werke, die auf "modernere" Produkte setzten.
Das orale Antidiabetikum Glibenclamid ist ein potenter Inhibitor des K ATP Kanals. Die Funktion dieses Kanals ist entscheidend für die Ischämische Präkonditionierung, die Myokardschäden unter Sauerstoffmangel vermindern kann. In der vorliegenden Arbeit wurde der Einfluß der Sulfonylharnstoffe Glimepirid und Glibenclamid in Kombination mit Rilmakalim auf die Kontraktilität isolierter Kardiomyozyten des Meerschweinchens mittels digitaler Bildanalyse untersucht. Weiterhin wurde der Einfluß dieser Substanzen auf die Vitalität isolierter Kardiomyozyten des Meerschweinchens unter elektrischer Stimulation durch LDHBestimmungen bestimmt. Rilmakalim verminderte die Kontraktilität der isolierten Kardiomyozyten konzentrations abhängig. Die Sulfonylharnstoffe Glimepirid und Glibenclamid zeigten in den untersuchten Konzentrationen keinen Einfluß auf die kardiomyozytäre Kontraktilität. In Kombination mit Rilmakalim konnte gezeigt werden, daß Glimepirid in den untersuchten Konzentrationen (0,03 µmol -- 9 µmol) den kontraktilitätsmindernden Effekt von Rilmakalim geringer hemmt als Glibenclamid. Ein Einfluß auf die Vitalität der Kardiomyozyten unter elektrischer Stimulation konnte bei keiner Substanz in den untersuchten Konzentration nachgewiesen werden. Die durchgeführten Untersuchungen legen den Schluß nahe, daß der Einfluß der Sulfonylharnstoffe auf kardiale K ATP Kanäle unterschiedlich ausgeprägt ist. Glimepirid scheint im Vergleich zu Glibenclamid in geringerem Ausmaß den sarkolemmalen K ATP Kanal zu blockieren. Dies läßt vermuten, daß auch kardiovaskuläre Nebenwirkungen, die über den Einflußt auf den K ATP Kanal vermittelt werden, unter einer Glimepiridtherapie geringer ausgeprägt sind. Inwieweit diese Annahme zutrifft, muß durch Untersuchungen an humanen Kardiomyozyten und in weiteren klinischen Studien verifiziert werden. Neuere Erkenntnisse über unterschiedliche K ATP Kanaltypen innerhalb des Kardiomyozyten machen es erforderlich, die Wirkung der Sulfonylharnstoffe auf diese Kanalsubtypen näher zu untersuchen.
Methodik: Die in dieser Arbeit entwickelte flowzytometrische Methode ist aufgrund der guten Korrelation zur gängigen Europium Immune Release Methode zur Bestimmung der NK-Zell-, bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität gut geeignet. Der geringe Zeit- und Kostenaufwand sprechen für die Anwendung dieser Methode. Enzympräparation: Die in dieser Arbeit verwendete Enzympräparation kann die NK-Zell bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität signifikant steigern. Eine signifikante Mehrfachstimulation ist ebenfalls möglich. Möglicherweise beruht dieser Effekt auf einer erhöhten Freisetzung von TNFa durch die Effektorzellen, die die Targetzellen zum (programmierten) Zelltod bringen. Ferner wird über die Freisetzung weiterer Zytokine berichtet, die eine Stimulierung der Effektorzellen bewirken (durch IL1b und IL6). Immunkomplex gebundene TNFa Moleküle können durch die proteolytische Aktivität freigesetzt werden. Die Ergebnisse weisen auf eine unspezifische Veränderung der Membranbestandteile der Effektorzellen hin, welche eine Freisetzung von Zytokinen bewirkt. Ferner kann die proteolytische Aktivität der Enzympräparate verschiedene Immunkomplexe und sogenannte Blockingfaktoren auflösen. Fazit: Eine signifikante und konzentrationsabhängig immunstimulierende Wirksamkeit der Enzyme ist gegeben. Diskussionswürdig dürfte hier nur die enterale Resorption bzw. Persorption sein (s.Kap I). Die parenterale Applikation ist wegen einer anaphylaktischen Reaktion risikoreich. Denkbar wäre eine ex vivo "Therapie" isolierter humaner Lymphozyten mit anschließender Wiederzufuhr in den Kreislauf. Die Aktivierenden Konzentrationen für die Enzyme liegen im Bereich von 20 bis 160 µg/ml bei einer Einfachstimulation. Bei höheren Konzentrationen als 320 µg/ml beginnt der toxische Bereich. Bei der Mehrfachstimulation von Lymphozyten liegt der aktivierende Bereich zwischen 10 bis 80 µg/ml, wobei die höheren Konzentrationen toxisch wirken. Retinoide: Eine konzentrationsabhängige signifikante Steigerung der NK-Zell- bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität ist gegeben. Die NK Zellaktivität konnte bei Konzentrationen von 10 8 bzw. 10 6 M mit Retinsäure und Retinol gesteigert werden, die Aktivität von CD 8 zytotoxischen T-Lymphozyten hingegen nur durch Retinsäure. Das Lösungsmittel DMSO bewirkte keine signifikante Aktivitätsänderungen. Diskutiert wird hier eine erhöhte Expression des IL2-Rezeptors sowie die des CD3 Rezeptors, als Ursache für die Aktivitätssteigerung führen soll. Der Fas-Ligand hingegen wird herabreguliert, was eine "Selbsttötung" der Effektorzellen verhindert. Die vermehrte Produktion von Zytokinen (IL2, IL4, IL6, IL10 und IFNgamma), deren Gehalt die im Überstand Retinol behandelter Zellen zunimmt, kann ebenfalls zur Aktivitätssteigerung führen.
Durch Längenmessungen an Exuvien wurden die Größenverhältnisse von Beinlängen, Drehachsenlängen der Beingelenke und der Fläche des Carapax bei C. salei ermittelt. Für die hydraulisch gestreckten Femoro- Patellar- und Tibio-Metatarsalgelenke wurden die Volumen-Winkel-Kennlinien bestimmt. Das Sprungverhalten wurde durch Hochgeschwindigkeits-Videoaufnahmen (Bildfrequenz 500 Hz) mit drei Kameras dokumentiert. Aus den volumetrischen, kinematischen und morphometrischen Daten wurden die Volumenverschiebungen berechnet, die bei Sprungbewegungen auftreten. Aus der prosomalen Volumenverschiebung konnte der korrespondierende Carapaxhub berechnet werden. Mit einer Miniatur- Kraftmeßplattform und einem mit Schrittmotoren getriebenen "x-y-z-Tisch" wurden Steifigkeiten des Prosomas von Perania nasuta Schwendinger, 1989 und ausgewählten anderen Taxa bestimmt. Bei Cupiennius salei gibt es zwei unterschiedliche Sprungtypen: Unvorbereitete Sprünge als Reaktion auf sehr plötzliche Störungen zeichnen sich durch eine große Vielfalt der Bewegungsmuster aus. Vorbereitete Sprünge zeigen charakteristische Beinstellungen und Kontaktphasenmuster: Zunächst erfolgt eine etwa 20 ms dauernde Ausholbewegung, anschließend beginnt die 22 - 42 ms dauernde Beschleunigungsphase. Die Körperlängsachse vollzieht während der Beschleunigungsphase eine Vorwärtsrotation um etwa 50°, die nach dem Verlust des Bodenkontaktes der Beine gestoppt und umgekehrt wird. Dies erfolgt wohl durch ein kontrolliertes Bremsen des Ausstoßes des Sicherheitsfadens. Bei vorbereiteten Sprüngen konnten Sprungweiten bis zu 0.43 m beobachtet werden, die maximalen vertikalen Geschwindigkeiten betrugen 0.07 - 0.82 ms-1, maximale horizontale Geschwindigkeiten lagen bei 0.65 - 1.25 ms-1. Bei vorbereiteten Sprüngen wurden vertikale Beschleunigungen von 0.74 – 33.70 ms-2 und horizontale Beschleunigungen von 20.5 – 68.4 ms-2 erreicht. Die Kontaktphasen der Beine enden in einer charakteristischen Reihenfolge: Die Vorderbeine haben meist keinen Bodenkontakt, die dritten Beine heben nach durchschnittlich 37 % und die vierten Beine nach durchschnittlich 69 % der Dauer der Beschleunigungsphase ab. Zuletzt verlieren die zweiten Beine den Bodenkontakt. Zu Beginn der Beschleunigungsphasen richten sich innerhalb von durchschnittlich 4.6 ms Stacheln auf der Oberfläche der Beine auf. Die Stachelaufrichtung erfolgt bei Drucken von etwa 35 bis etwa 65 kPa. Dies zeigt einen Druckanstieg in den Beinen auf Werte von ³ 65 kPa während der Beschleunigungsphase an. Der Hauptanteil der Volumenverschiebungen in den Beinen wird durch Bewegungen der Femoro-Patellargelenke verursacht. Die Bewegungen der Tibio-Metatarsalgelenke bewirken nur geringe Volumenverschiebungen. Aufgrund der anatomischen Struktur der Trochantero- Femoralgelenke sind die bei Bewegung dieser Gelenke verschobenen Volumina vernachlässigbar klein. Die Abschätzung der zur Beinstreckung bei Sprüngen erforderlichen Carapaxverschiebungen ergab sehr geringe Werte, es sind nur Verschiebungen um wenige 1/100 bis 1/10 mm erforderlich. Für die vollständige Streckung aller Beine muß der Carapax nur um 10% der aufgrund der anatomischen Gegebenheiten maximal möglichen Strecke verschoben werden. Bei den Untersuchungen an Perania nasuta wurden prosomale Steifigkeiten von mehr als 3500 Nm-1 für Weibchen und mehr als 6500 Nm-1 für Männchen ermittelt. Das Prosoma von Perania nasuta ist sehr viel rigider als bei anderen Spinnen (Pholcus: 131 Nm-1, Zelotes: 79 Nm-1, Pardosa: 72 Nm-1, Dysdera: 1900 Nm-1). Die Carapaxverschiebung, die den zur vollständigen Beinstreckung erforderlichen Volumentransport bewirkte, würde bei Perania eine Verformungsarbeit von bis zu 27.56 myJ erfordern, bei den anderen Spinnen nur maximal 1.67 myJ (Dysdera). Das Sprungverhalten von Cupiennius salei läßt sich keinem der bislang beschriebenen Sprungtypen zuordnen. Hinsichtlich der Sprungweite und Geschwindigkeiten sind die Sprungleistungen von Cupiennius mit denjenigen von Salticiden vergleichbar. Die geringen Carapaxverschiebungen beim Sprung lassen sich im Sinne einer Optimierung der Arbeit extrinsischer coxaler Muskeln interpretieren. Eine Minimierung von Carapaxverschiebungen sollte die Koordinierbarkeit der Bewegungen der Coxae erhöhen, weil ein stärker formkonstanter Bezugsrahmen gegeben ist. Dementsprechend lassen sich Bein- und Carapaxdimensionen bei verschiedenen Spinnentaxa im Hinblick auf die jeweiligen Lokomotionsstrategien interpretieren. Die Untersuchungen an Perania nasuta bestätigen die von Kropf (in Vorb.) aufgestellte Hypothese einer starken Versteifung des Prosoma. Die Druckpumpe scheint hier im Opisthosoma lokalisiert zu sein. Hinsichtlich der möglichen Vorteile einer solchen Entwicklung lassen sich einerseits die besseren Bedingungen der Arbeit extrinsischer coxaler Muskeln im vollständig steifen "Gestell" des Prosoma nennen, andererseits könnte aufgrund entsprechender Lokomotionsmodi bei Perania keine Notwendigkeit zur schnellen Verschiebung großer Haemolymphvolumina aus dem Prosoma bestehen, so daß eine leistungsfähige prosomale Druckpumpe wegfallen konnte.
Exemplarisch anhand der Offenbacher Lohwald-Siedlung, einem klassischen sozialen Brennpunkt, der sich in den vergangenen drei Jahrzehnten vom Obdachlosen-Asyl hin zu einem modernen Ghetto verwandelt hat, werden Lebenssituation, Lebensentwürfe und die Lebensperspektiven jugendlicher Brennpunkt-BewohnerInnen beschrieben. Hierzu werden die Entwicklungsgeschichte und die Beschreibung der räumlichen Segregation des Wohngebietes sowie Angaben zur Sozial- und Infrastruktur des Stadtteils und die Beschreibung der Lebens- und Sozialisationsbedingungen ebenso herangezogen wie die analytische Betrachtung komplexer gesellschaftlicher Entwicklungen und die Selbsteinschätzungen und -deutungen junger Lohwald-BewohnerInnen, die im Rahmen einer empirischen Untersuchung ermittelt wurden. Zwar ergab die Gesamtuntersuchung, dass der Charakter der Lohwald-Siedlung als ein nach innen und aussen relativ geschlossenes Ghetto brüchig und nach beiden Seiten hin durchlässig geworden ist, und dass diese Entwicklung sich auch in den jugendlichen Orientierungsmustern niederschlägt. Doch dies ist nicht gleichbedeutend, dass sich dadurch der Brennpunktcharakter der Siedlung aufgelöst hat. Für viele junge Menschen ist Aufwachsen im sozialen Brennpunkt nach wie vor gleichbedeutend mit Unterversorgung, Beeinträchtigung, Benachteiligung und Stigmatisierung sowie fehlender Förderung in wesentlichen basalen Bereichen. Das Zusammenkommen defizitärer familiärer Sozialisation und einer häufig problempotenzierenden Sozialisation durch die Gleichaltrigengruppe (Peergroup) unter den Bedingungen begrenzter Erlebnis-, Erfahrungs- und Erkenntnismöglichkeiten, fehlender Lernfelder und mangelnder Erfolgs- sowie Anerkennungsmöglichkeiten haben u.a. zur Folge, dass wichtige Einstellungs- und Verhaltensmuster und Schlüsselqualifikationen fehlen bzw. nicht ausreichend ausgeprägt sind, um den unterschiedlichsten Anforderungen eines Lebens außerhalb des sozialen Brennpunktes und einer sich immer rascher wandelnden Gesellschaft entsprechen zu können. Doch nicht nur die subjektiven Dispositionen sondern auch die objektiv-gesellschaftlichen Bedingungen, die sich aus der Dynamik gesellschaftlichen Wandels ergeben erhöhen für viele Brennpunkjugendlichen die Wahrscheinlichkeit der Aufrechterhaltung ihrer Randgruppenexistenz und somit ihres Verbleibs im unteren Drittel, wenn nicht Zehntel der Gesellschaft. Dem entgegenzuwirken ist nicht nur Aufgabe von Sozialpolitik sondern auch von Sozialarbeit. Ausgehend von den ermittelten Bedarfen vor Ort werden Theorie und Praxis eines zielgruppenorientierten Konzeptes von Jugendarbeit vorgestellt, das sich nach wie vor dem emanzipatorischen Anspruch verpflichtet sieht, zur Persönlichkeitsentwicklung- und Bewusst- seinsbildung beizutragen. Nicht nur weil dies den Erfordernissen des gegenwärtigen Arbeitsmarktes entspricht oder zu einem gelingenderen Umgang mit den Anforderungen führt, die sich aus den gesellschaftlichen Strukturwandlungsprozessen ergeben, sondern weil dies als wichtiger Beitrag zu verstehen ist, junge Menschen in die Lage zu versetzen, sich, ihre Umwelt, ihre Situation und deren Ursachen aber auch ihre Zukunftsperspektiven verstehen und tendenziell auch verändern zu können. Es geht also um die Begründung und Beschreibung einer Jugendarbeit, die zur Bewusstmachung und Eröffnung von Handlungsfeldern führt. Anhand der Theorie, des Konzeptes und der Praxis erlebnisorientierter Jugend(kultur)arbeit im Lohwald und deren Evaluation u.a. durch empirische Befunde wird nicht nur aufgezeigt, dass eine solche Jugendarbeit erfolgreich sein kann, sondern auch, das die Debatten um die sozialisatorische und politische Produktivität von Jugendarbeit nach wie vor aktuell sind.
Ich will im folgenden die bisher dargestellte praktische Philosophie Kants im Zusammenhang gegen die, besonders gegen die Theorie vom höchsten Guten, erhobenen Einwände zusammenfassen. Diese Einwände, die entweder die Reinheit des sittlichen Gesetzes oder die Einheit von Glückseligkeit und Tugend betreffen, haben im Grunde genommen ganz entgegengesetzte Behauptungen hervorgebracht. Eine ist der sogenannte Rigorismus- oder Formalismusvorwurf, der überwiegend die Analytikteile der GMS und der KpV betrifft. Die andere ist der Eudämonismusvorwurf, der sich überwiegend auf den Dialektikteil der KpV bezieht. Beide Vorwürfe sind, wie wir unten sehen werden, meines Erachtens nicht sachgemäß. ...
Die Dorfschulen in Nassau-Usingen 1659 - 1806 : Schulregiment und Schulwirklichkeit auf dem Land
(1999)
Die Suche nach einer umfassenden und vergleichenden Darstellung der Geschichte des niederen Schulwesens in Deutschland bleibt wenig erfolgreich. Das gilt insbesondere für die Geschichte des Schulwesens auf dem Land. Der Schwerpunkt der durchaus produktiven Forschung zur deutschen Bildungsgeschichte liegt auf universitärer, zunehmend auch auf gymnasialer Ebene, während das darunterliegende Schulwesen weniger Berücksichtigung findet. Ferner konzentriert sich die deutsche historische wie pädagogische Forschung mehr auf die Institutionen- oder aber Erziehungs-, Wissenschafts- und Ideengeschichte als auf sozialgeschichtlich-statistische Untersuchungen und die Geschichte der Schulwirklichkeit. Unter zahlreichen gleichlautenden Aussagen sei hier nur auf Lundgreen (1971) verwiesen, der den großen "Mangel an empirischen Untersuchungen des Bildungswesens" beklagt und auf Neugebauers Feststellung (1985), daß "die Erhellung der Schulwirklichkeit im 18. Jahrhundert noch immer ein Desiderat der Geschichtswissenschaft" sei. Die territoriale Zersplitterung Deutschlands in 1.774 Herrschaftseinheiten vor 1803 erschwert eine Zusammenschau der Situation des deutschen Schulwesens auf dem Land. Bisher wurden vorwiegend die großen oder bedeutenden deutschen Territorien erforscht. Dabei liegt ein deutlicher Schwerpunkt auf Preußen und auf der Geschichte der Volksschule seit den allgemein einsetzenden Schulreformen ab Mitte des 18. Jahrhunderts und insbesondere auf dem 19. Jahrhundert. In den letzten Jahren kamen wenige Einzeluntersuchungen zu Bayern und kleineren deutschen Territorien hinzu. Ein weiterer Grund für die vor allem in den vergangenen Jahrzehnten geringe Beachtung des deutschen Schulwesens auf dem Land könnte in den vielfältigen Untersuchungen zu diesem Thema im 19. und frühen 20. Jahrhundert liegen. Diese Darstellungen neigen jedoch häufig dazu, die Wirklichkeit idealistisch zu verkürzen. ...
Die vorliegende Monografie setzt sich mit der Bedeutung und der Verwendung der Farbe Ocker in einem Längsschnitt durch die Kunst- und Kulturgeschichte der Menschheit auseinander. Auf Grundlage von archäologischen Funden, kulturgeschichtlichen Forschungen und kunstwissenschaftlichen Erkenntnissen ist das Hauptanliegen dieser Arbeit, die Funktion und Bedeutung der Verwendung des Ockers als Farbe und Substanz zu erörtern. Die Arbeit wird ergänzt durch einen Katalog von Funden und Beispielen. Nach der ersten Einarbeitung in die Literatur zum Thema Ocker stellte sich heraus, daß Ocker über die Verwendung als gut verfügbares Farbmaterial hinaus, weitreichendere Bedeutung hat. Die Farbe Ocker, eine der frühesten Farben der Menschheitsgeschichte, fand schon zu kultischen Zwecken in prähistorischer Zeit Verwendung und weist ein großes Spektrum an historischer Verwendungs- und Bedeutungsvielfalt auf. Diese Untersuchung geht von der Hypothese aus, daß Ocker über einen Zeitraum von mehr als 60000 Jahren bis ins 20. Jahrhundert und in die Gegenwart in kultischen Handlungen und künstlerischen Äußerungen des Menschen in einem semantischen Feld zwischen Malfarbstoff und einem mythischreligiösen Bezugsrahmen als Symbol oder Zeichen Verwendung findet.
In dieser Arbeit wird die Elektronenemission aus langsamen He 2 HeStößen, d.h. bei Stoßenergien unterhalb von 25 keV/u, experimentell untersucht. Dabei wird auf den Vergleich der Einfachionisation (He 2 He ! He 2 He e \Gamma ) mit der Transferionisation (He 2 He ! He He 2 e \Gamma ) besonderes Gewicht gelegt. Die hier verwendete Meßtechnik ist von verschiedenen Arbeitsgruppen in den letzten Jahren entwickelt worden und unter dem Schlagwort COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy) [1, 2, 3] in der Literatur zu finden. Bei COLTRIMS werden die bei einer Reaktion in einem kalten Gastarget gebildeten Ionen in einem schwachen elektrischen Feld abgesaugt. Durch den ortsaufgelösten Nachweis und die Messung der Flugzeit von der Targetzone bis zum Detektor kann die Anfangsbedingung der Bewegung im Feld, d.h. der Vektor des auf das Targetatom übertragenen Impulses, berechnet werden. Diese Methode kommt ohne Blenden aus, so daß im relevanten Teil des Phasenraumes 4ß Raumwinkel erreicht werden. Der Nachweis des Elektrons erfolgt nach demselben Prinzip, jedoch stößt man dabei an die Grenzen der Flugzeitauflösung. Deshalb wurden in allen früheren Experimenten zu ähnlichen Reaktionen [4, 5, 6, 7, 8, 9] nur zwei der drei Impulskomponenten des Elektrons bestimmt. Die Konzipierung eines Spektrometers, welches in der Lage ist, den relevanten Phasenraum lückenlos zu erfassen und dabei alle drei Impulskomponenten der Elektronen zu bestimmen, war der wesentliche Teil der apparativen Entwicklung. Das durchgeführte Experiment ist nicht nur kinematisch vollständig, sondern erlaubt durch Anwendung des Energieerhaltungssatzes auch die Bestimmung der Schale, in der das Elektron im Endzustand gebunden ist. Die beiden oben genannten Reaktionen können somit getrennt nach Ereignissen mit und ohne Anregung untersucht werden, d.h., es wurden gleichzeitig vier verschiedene Ionisationskanäle vermessen. Für den Ionisationsmechanismus bei Stößen mit einer Projektilgeschwindigkeit unterhalb der klassischen Bahngeschwindigkeit der Elektronen hat sich in den letzten Jahren der Begriff ''Sattelpunkt''Prozeß durchgesetzt [10]. Quantenmechanische Beschreibungen für Einelektronensysteme, wie das Stoßsystem p H, wurden u.a. mit der semiklassischen GekoppelteKanäleMethode [11] in einem speziellen Basissatz [12, 13] und der ''HiddenCrossings''Theorie [14, 15] gegeben. Beide Modelle beschreiben das System aus Projektil und Target als Quasimolekül. Si sind lediglich in der Lage, die groben Strukturen in den Spektren zu erklären. Das gewählte Stoßsystem He 2 He, welches zwei Elektronen besitzt, erlaubt die Untersuchung von Korrelationseffekten. Die Messungen haben ergeben, daß die Impulsverteilung des emittierten Elektrons stark davon abhängt, wo und in welchem Bindungszustand das zweite Elektron nachgewiesen wird. Die gleiche Kernladung von Projektil und Target bedingt, da alle Eigenzustände des gebildeten Quasimoleküls die Symmetrie des Hamiltonoperators gegenüber Raumspiegelung besitzen, und durch diese Spiegeloperation gehen die Endzustände der Transferionisation und der Einfachionisation ineinander über. Durch die gleichzeitige Messung der differentiellen Wirkungsquerschnitte der verschiedenen Reaktionskanäle und deren Vergleich erhält man Einblick in die zugrundeliegenden Prozesse.
Die Dissertation wurde im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten interdisziplinären Sonderforschungsbereiches 268 "Kultur- und Sprachentwicklung im Natrurraum Westafrikanische Savanne" angefertigt. Dabei war die Kartierung und Analyse von Landbedeckungs- und Landnutzungsveränderungen in einem Ausschnitt des nigerianischen Tschadbeckens Zielsetzung vorliegender Arbeit. Trotz eines recht großen allgemeinen Interesses am Tschadsee, dem größten See Westafrikas, fällt es schwer, topographische und thematische Information über diese Region zu erlangen. Viele Zusammenhänge bezüglich seiner Vergangenheit und seiner zukünftigen Entwicklung sind bis heute nicht geklärt. Soweit Daten zur Landbedeckung und Landnutzung bereits verfügbar waren, wurden sie aufbereitet und im Rahmen des regionalen geographischen Informationssystems FirGIS strukturiert gegliedert aufgenommen. Als hauptsächliche Datenquelle wurde jedoch auf Fernerkundungsdaten der Region zurückgegriffen. Sie liefern meist die einzige großflächig vorhandene, aktuelle und vor allem multitemporale Information über das Untersuchungsgebiet. Die Auswertung der Fernerkundungsdaten erfolgte mit Methoden der digitalen Bildverarbeitung. Aktuelle und historische Luftbilder wurden visuell interpretiert und anschließend vektoriell digitalisiert. Satellitenszenen wurden vorwiegend digital direkt im Rasterdatenmodell bearbeitet. Nach der Datenaufbereitung mit verschiedenen Techniken der Bildverarbeitung erfolgte die Auswertung mittels digitaler Klassifizierung. Weitere wichtige Bearbeitungsschritte bei der Ergebnisfindung waren unterschiedliche multitemporale Darstellungsweisen, die Berechnung von Vegetationsindizes sowie Verschneidungstechniken zur Aufdeckung von Veränderungen. Die Auswertung aller Daten erfolgte nach einem einheitlichen mehrstufigen Klassifizierungssystem, das für die Verhältnisse im Tschadbecken entwickelt wurde. Die aus den Fernerkundungsdaten abgeleiteten Ergebnisse gliedern sich nach vier verschiedenen Dimensionen der Zeit. Die Ausgangsbasis bildet eine digitale aktuelle Kartierung der Landbedeckung und Landnutzung eines mehr als 3500 km² großen Ausschnittes des nigerianischen Tschadbeckens im Maßstab 1 : 25 000. Aufbauend auf der aktuellen Landnutzungskartierung wurde für einen etwa 1100 km² großen zentralen Teilausschnitt aus dem Gesamtuntersuchungsgebiet das dynamische Verhalten der Landbedeckungs- und Landnutzungseinheiten im Jahresverlauf untersucht. Dazu konnten fünf SPOT-XS-Satellitenszenen der Vegetationsperiode 1995/96 herangezogen werden. Als Zusammenfassung aus den phänologischen Analysen aller im Untersuchungsgebiet auftretenden Objekte und ihrem entsprechenden unterschiedlichen Spektralverhalten zu verschiedenen Zeitpunkten wurde eine detaillierte Landbedeckungs- und Landnutzungskartierung der Saison 1995/96 angefertigt. Sie ging aus einer komplexen hierarchischen Satellitenbildklassifizierung mit differenzierten Zuweisungsregeln hervor. Mit den Erfahrungen aus der Untersuchung zur saisonalen Dynamik wurden in einem weiteren Schritt alle für das Teiluntersuchungsgebiet zur Verfügung stehenden Satellitenszenen ausgewertet, um Erkenntnisse über interannuelle Unterschiede der zu verschiedenen Zeitpunkten aufgenommenen Satellitenszenen zu gewinnen und deren Ursachen aufzudecken. Als ideale Grundlage wurden multitemporale Vegetationsindizes verglichen, Veränderungskarten abgeleitet und Niederschlagsdaten zur Interpretation hinzugezogen. Eine 24jährige Zeitreihe der klassifizierten Vegetationsindizes ermöglicht eine zusammenfassende Interpretation. Die Auswertung historischer Luftbilder von 1957 und der Vergleich mit den Luftbildern von 1990 ermöglichte schließlich die Beurteilung langfristiger Entwicklungen im engeren Untersuchungsgebiet. Die Ergebnisse sind in Form einer historischen Karte, als Veränderungskarten und quantitativ festgehalten. Ein wichtiges Ergebnis der vorliegenden Arbeit besteht in der Strukturierung aller verwendeten Grundlagendaten zum Thema Landbedeckung und Landnutzung im Tschadbecken einschließlich seiner Nachbargebiete innerhalb des regionalen geographischen Informationssystemes FirGIS. In ihm sind neben den Ausgangsdaten alle Ergebnisse und die zum Thema gehörigen Zusatzinformationen enthalten. Es ermöglicht damit eine zukünftige Fortschreibung durch thematische, räumliche oder zeitliche Ausdehnung. Das Geoinformationssystem FirGIS bietet außerdem die Möglichkeit, bereits vorhandene wie auch zukünftige Information anderen Interessenten vor allem auch vor Ort zur Verfügung zu stellen.
In einer Verlaufsbeobachtung wurden fünfundzwanzig Patienten der hämatologischen Ambulanz der J. W. v. Goethe-Universität, welche an Hämophilie oder an einer anderen hämatologischen Erkrankung leiden, über einen Zeitraum von November 1992 bis Februar 1995 untersucht. Diese Patienten erhielten nach Aufklärung eine Hirn-SPECT- Untersuchung mit HMPAO oder EDT. Jeweils 3/25 Patienten wurden wegen eines pathologischen Hirn-SPECT Ergebnisses nach 3 Monaten bzw. bei einem auffälligem Befund nach einem halben Jahr nachuntersucht. Bei unauffälligem Ergebnis erhielten die Patienten (13/25) nach einem Jahr eine Kontrolluntersuchung. Insgesamt bekamen achtzehn Patienten eine technisch einwandfreie Zweituntersuchung; eine Patientin erhielt wegen initial deutlicher Befundverbesserung zur Beobachtung fünf Hirn-SPECT Untersuchungen. Vor jeder nuklearmedizinischen Untersuchung wurde ein psychometrischer Test zur Erfassung der Aufmerksamkeit und Vigilanz, der feinmotorischen Fähigkeiten, depressiver Verstimmung und leichter cerebraler Insuffizienzen durchgeführt. Wichtige klinische Daten und immunologische Parameter zur Einteilung in ein CDC-Stadium lagen ebenfalls vor. Die Perfusionsergebnisse wurden visuell nach Filterung und Reorientierung der Daten anhand der orbito-meatalen Linie und der stereotaktischen Transformation und semiquantitativ nach der Methode nach Podreka ausgewertet. In die visuellen Beurteilung flossen die Perfusion des Gehirnes als gesamtes, die Thalamusperfusion und die Defekte in Größe und Lokalisation ein. Die semiquantitative Auswertung bestand aus einer manuellen Einteilung des Gehirns in 18 Regions of Intrest mit anschließender Quantifizierung der Aktivitätsverteilung. Betrachtet wurden hier zum einen ein Abweichen der mean-cts (%) im rechts/links Vergleich >15%, da dies einen cerebralen Defekt anzeigt, zum anderen Gebiete <90% bzw. >110% der mittleren Gesamt-Counts, welche hypo- bzw. hyperperfundierte Regionen darstellten. * Die Daten zeigten im Langzeitverlauf eine Verschlechterung der cerebralen kortikalen Perfusion mit Progredienz der Defekte. Tendenziell bestanden zu Beginn der HIVE vorwiegend fokale cerebrale Minderperfusion mit Betonung der frontalen, im Thalamus gelegenen und der occipitalen Regionen und erst mit Progredienz der Erkrankung diffuse Veränderungen. Bei dem vorliegenden Patientengut lag die stärkste Perfusion occipital gefolgt von temporal und parietal, mit jeweiliger Betonung des Uptake der dominanten Hemisphäre vor. Im Auswertungsverfahren sollten sich Semiquantitative und visuelle Beurteilungen der Ergebnisse ergänzen, um die jeweilige Fehlermöglichkeiten zu minimieren. Die Methode der stereotaktischen Transformation erwies sich hierbei als die zeitaufwendigere aber genauere Methode. Die verwandten Methoden sind jedoch noch nicht robust genug, um sie für Routineuntersuchungen zu benutzen. * Im Vergleich der neuropsychometrischen Test fand sich eine gute Korrelation der kognitiven Leistungstests (ZVT) mit den SPECT-Daten der Thalamusperfusion. Diese Ergebnisse sollten jedoch nur im Zusammenhang mit anderen Studien betrachtet werden, da die Patientenzahl gering war. * Klinische und immunologische Parameter spiegelten eine cerebrale Infektion mit HIV nicht wider. Zusammenfassend ist die Untersuchung der Perfusion des Hirnkortex mit SPECT eine sensitive Methode cerebrale Veränderungen einer HIVE zu diagnostizieren und den Erfolg einer medikamentösen Therapie zu dokumentieren. Gerade aber in der Frühphase der HIVE ist ein solches diagnostisches Verfahren wichtig, da die meisten Patienten asymptomatisch sind und klinische und immunologische Parameter die cerebrale Infektion nicht widerspiegeln. Zudem handelt es sich um ein nicht invasives Verfahren, welches im Bedarfsfall mehrfach angewendet werden kann. Zur Routineanwendung müssten jedoch robustere semiquantitative Auswertverfahren entwickelt werden.