Refine
Year of publication
Document Type
- Doctoral Thesis (3563) (remove)
Language
- German (3563) (remove)
Has Fulltext
- yes (3563)
Is part of the Bibliography
- no (3563)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (9)
- Nanopartikel (8)
- Apoptosis (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
- USA (7)
Institute
- Medizin (1355)
- Biochemie und Chemie (445)
- Biowissenschaften (403)
- Pharmazie (237)
- Physik (212)
- Gesellschaftswissenschaften (95)
- Biochemie, Chemie und Pharmazie (91)
- Neuere Philologien (66)
- Psychologie (66)
- Kulturwissenschaften (64)
Bei der chronisch venösen Insuffizienz (CVI) handelt es sich um einen im Bereich der unteren Extremität lokalisierten varikösen Symptomenkomplex bestehend aus Beschwerden wie Schmerzen, Schwere-, Spannungsgefühl, Juckreiz uvm. Dazu kommen stadienabhängig trophische Hautveränderungen, bedingt durch veränderte Kapillarmorphologie und -dichte. Diese Veränderungen können, je nach Ausprägungsgrad, von Hyperpigmentation über Dermatitis, Corona phlebectatica paraplantaris, Atrophie blanche bis hin zum floriden Ulcus cruris venosum reichen.
In der Bundesrepublik Deutschla nd leiden ca. 10-15 Millionen Menschen an einer manifesten CVI. Der CVI kommt aufgrund ihrer hohen Prävalenz eine hohe sozialmedizinische und sozialökonomische Bedeutung zu. Der pathophysiologische Mechanismus, der der CVI zugrunde liegt, ist bei Hinzukommen von begünstigenden Faktoren, z.B. Orthostasebelastung, in der Entwicklung von insuffizienten Venenabschnitten oder Insuffizienzpunkten im Bereich der Venenklappen oder anderen am Rücktransport des Blutes zum Herzen beteiligten Mechanismen zu suchen.
Eine Vielzahl von Therapieverfahren, wie etwa operative Eingriffe und Sklerosierungen, sind auf die Ausschaltung dieser Insuffizienzpunkte ausgerichtet. Diese Verfahren sind gründlich erforscht und durch klinische Studien wohldokumentiert. Ihre Grenzen liegen zum einen in möglichen Nebenwirkungen, zum anderen in der grundlegend chronisch degenerativen Natur der Erkrankung, deren Ursachen durch solche Therapieformen nicht erfasst werden.
Andere, nicht invasive und meist physikalische Therapieformen zielen auf eine Verbesserung der subjektiv empfundenen Lebensqualität ab. So ist etwa die Wirksamkeit von kalten hydrotherapeutischen Anwendungen wie Knie- oder Beingüssen, Wassertreten, Lehm-Wadenwickeln oder wechselwarmen Anwendungen nach Kneipp auf die subjektiven Beschwerden mehrfach beschrieben und in evidenten Studien belegt worden.
Wie es sich in diesem Zusammenhang mit der Wirksamkeit kalter Lehmpackungen, so wie sie als ortsgebundenes Heilmittel in Kurbädern Anwendung finden, verhält, ist hingegen bis dato nicht systematisch ergründet worden. Um diesen Mangel zu beheben, wurde die vorliegende randomisierte, kontrollierte Studie zur Wirksamkeit von kalten Lehmpackungen auf die Beine von CVI-Patienten entworfen. In dieser Studie wurden zum einen die Wirkungen dieser Behandlungsform auf die subjektiv erfassten Größen Lebensqualität, Schmerzen und Stauungsbeschwerden ermittelt, unter Anwendung des SF (short form) 36-Fragebogens und der visuellen Analogskala (VAS). Als Hauptzielgröße wurde die subjektiv empfundene Lebensqualität gewählt. Zum anderen wurden die objektiven Messparameter Knöchel-, Wadenumfang, transkutan gemessener Sauerstoffpartialdruck und die venöse Wiederauffüllzeit als Nebenzielgrößen erfasst.
Im direkten Anschluss an die Therapie lassen sich signifikante Verbesserungen der subjektiven Messparameter verzeichnen. Diese fallen bei den krankheitsspezifischen Faktoren und im körperlichen Lebensqualitätsprofil deutlicher aus als im psychischen Lebensqualitätsprofil. Innerhalb des körperlichen Lebensqualitätsprofils wiederum zeigen sich die deutlichsten Verbesserungen bei der körperlichen Rollenfunktion, gefolgt von den körperlichen Schmerzen. Das psychische Lebensqualitätsprofil weist die deutlichste Verbesserung bei der emotionalen Rollenfunktion auf. Diese Ergebnisse lassen sich in der vorliegenden Kombination vor dem Hintergrund der Beobachtungen erklären, dass zum einen die CVI eine chronisch degenerative körperliche Erkrankung ist, deren Effekte sich vornehmlich in körperlichen und psychischen Funktionalitätseinbußen manifestieren, und dass sich zum anderen das Patientenkollektiv der Studie durch fortgeschrittenes Alter und einen insgesamt unterdurchschnittlichen gesundheitlichen Allgemeinzustand auszeichnet. Alter und gesundheitlicher Allgemeinzustand wiederum gehen in erster Linie mit dauerhaft empfundenen Beeinträchtigungen der körperlichen und psychischen Rollenfunktionen einher. Durch die Lehmpackungen gelingt nun eine Reduktion der Schmerzen und anderer Beeinträchtigungen der körperlichen Befindlichkeit (Schweregefühl, Juckreiz). Diese Verbesserungen machen es dem Patienten möglich, seine an ihn gestellten Rollenerwartungen besser zu erfüllen.
Die erreichten positiven Effekte auf die subjektiven Parameter tendieren nach drei Monaten wieder in Richtung Ausgangswert, ohne diesen jedoch zu erreichen, so dass sich eine gewisse Nachhaltigkeit des Therapieeffektes zeigt. Die objektiven Messparameter tendieren in Richtung einer Verbesserung (Ausnahme: venöse Wiederauffüllzeit rechts), erreichen jedoch kein hinreichendes Signifikanzniveau. Um diesbezüglich ein aussagekräftiges Ergebnis zu erhalten, wären ggf. eine Vergrößerung der Stichprobe und andere bzw. verfeinerte Messmethoden angebracht.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die thermische Zersetzung von Vitriolen MIISO4 H2O (M = Fe, Mn, Co, Ni, Zn und Mg) und von anderen Sulfathydraten wurde untersucht, um zu klären, ob sie für die Entdeckung der Schwefelsäure und deren Gewinnung nach dem früher üblichen Verfahren der Vitriolbrennerei in Betracht kommen. Eisenvitriol wird beim Erhitzen entwässert, durch Luft oxidiert und zerfällt bei etwa 550°C in ein Eisen(III)-oxidsulfat der wahrscheinlichen Zusammensetzung Fe16O9(SO4)15, aus dem bis 650°C alles Schwefeltrioxid abgespalten wird. Bei diesen Temperaturen zerfällt nur ein kleiner Teil des Schwefeltrioxids in Schwefeldioxid und Sauerstoff. Alle anderen Vitriole zersetzen sich erst bei 800-850°C vollständig, d.h. unter Bedingungen, unter denen überwiegend Schwefeldioxid gebildet wird. Die partielle Oxidation von Mangan und Cobalt, durch die Mn3O4 bzw.Co3O4 entstehen, findet ebenfalls bei 600-700°C statt. Die Zersetzung von Aluminium- und Eisen(III)-sulfat beginnt bei niedrigen Temperaturen und ist beim Eisen(III)-sulfat bei 600-700°C abgeschlossen. Aluminiumsulfat wird aber erst bei über 800°C vollständig zersetzt. Die Untersuchung der Zersetzungsreaktionen ließ verschiedene Zwischenprodukte erkennen, insbesondere Oxidsulfate, von denen einige – wie Fe16O9(SO4)15 – näher charakterisiert wurden. Die Schwefelsäure ist wahrscheinlich beim Erhitzen von Eisenvitriol entdeckt worden, der schon seit der Antike bekannt war. Mehrere Vorschriften zum Erhitzen von Eisenvitriol allein oder im Gemisch mit anderen Sulfaten sind aus der arabischen Alchemie des frühen Mittelalters bekannt. In Europa erscheinen solche Vorschriften im 13. Jahrhundert. Auch dem frühen technischen Verfahren seit dem 17. Jahrhundert lag die Zersetzung von Eisenvitriol unter Luftzutritt zu Grunde. Verunreinigungen durch andere Vitriole, insbesondere des Zinks und Mangans, haben vermutlich die Ausbeute verringert. Das neuere technische Verfahren, das bis 1900 betrieben wurde, ging von „Vitriolstein“ aus. Dieses Gemisch von Eisen(III)- und Eisen(II)-sulfat mit wenig Aluminiumsulfat und sehr geringen Mengen anderer Sulfate wurde durch Auslaugen von Vitriol- bzw. Alaunschiefer gewonnen. Welche Eisenverbindungen es enthielt, ist nicht sicher. Ihre Zersetzung lief aber wahrscheinlich ähnlich ab wie die von Eisen(III)-sulfat. Auch bei diesem Verfahren war der Eisensulfatgehalt des Rohstoffes entscheidend für den Erfolg.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Das Sturge-Weber Syndrom ist eine kongenitale neuroektodermale Erkrankung aus dem Formenkreis der Phakomatosen mit einer Inzidenz von eins auf 50.000 Neugeborene ohne familiäre Häufung und ohne bestimmte ethnische- und Geschlechtszugehörigkeit. Es ist gekennzeichnet durch leptomeningeale Angiomatose, Glaukome und Feuermale im Ausbreitungsgebiet des Trigeminusnervs. Klinisch manifestiert es sich durch Krampfleiden, neurologische Defizite, Glaukomanfälle, migräneartige Kopfschmerzen, schlaganfallartige Ereignisse und mentale Retardierung. Da die Erkrankung mit Vergrößerung der leptmeningealen Angiome progredient ist, wurde in dieser Arbeit der Frage nach angiogenen Prozessen in diesen Angiomen nachgegangen. Immuhistochemisch untersucht und semiquantitativ ausgewertet wurden die Proteine der angiogenen Faktoren VEGF, VEGFR-1 und-2, NP-1, Tie-2, Hif-1a und Hif-2a. Für alle Faktoren zeigten sich erhöhte Expressionslevel im Vergleich zu den Epilepsie- Negativkontrollen. Zudem zeigte sich eine erhöhte Proliferations- und Apoptoserate in den leptomeningealen Angiomen und den intraparenchymalen Gefäßen des darunterliegenden Cortex’. Die Ergebnisse sprechen für das Vorhandensein aktiver angiogener Prozesse in leptomeningealen Angiomen bei Sturge-Weber Syndrom Patienten. Als Arbeitsmodell wird vorgeschlagen, dass eine endothelzellintrinsische Hif Aktivierung (intrinsischer Signalweg) die Gefäße für eine erhöhte VEGF Stimulation (extrinsischer Signalweg) empfänglich macht und somit zu Erhalt und Progredienz der Angiome beiträgt. Eine therapeutische Option könnte eine antiangiogene Strategie zur Eindämmung oder Regression der Angiome darstellen.
In zahlreichen Studien konnte ein tumorwachstumshemmender Effekt der überwiegend in Fischöl vorkommenden Omega-3-Fettsäuren, insbesondere der Eikosapentaensäure (EPA), belegt werden. In den bisher vorliegenden Studien wurde überwiegend der Effekt freier Fettsäuren auf das Wachstum von Tumorzellen untersucht. Ziel dieser Studie war es deshalb, den Effekt einer Fettemulsion mit komplexer Triglyzeridstruktur, die als solche auch am Patienten im Rahmen einer parenteralen Ernährung Anwendung findet, auf das Wachstum der Pankreaskarzinomzelllinie Mia-Paca-2 und der Kolonkarzinomzelllinie Caco-2 zu untersuchen, und die zugrundeliegenden Mechanismen für die erhobenen Effekte zu evaluieren. • Die in der vorliegenden Studie eingesetzte Fischölemulsion hemmte die Proliferation sowohl der Pankreaskarzinomzelllinie Mia-Paca-2 als auch der Kolonkarzinomzelllinie Caco-2 dosis- und zeitabhängig. Dieser Effekt war auf eine Zunahme der Apoptoseinduktion und eine Blockierung der Zellen in der S- und G2/M-Phase des Zellzyklus zurückzuführen. Tumorzellen sind in der Lage, durch Expression von Wachstumsfaktoren ihr Zellwachstum selbständig zu stimulieren. Eine bedeutende Rolle scheint in diesem Zusammenhang der epidermale Wachstumsfaktor (EGF) zu spielen. Bei zahlreichen Tumoren kann eine Überexpression des membranständigen EGF-Rezeptors nachgewiesen werden. Es gibt Hinweise, dass die Modifikation der Lipidkomposition zellulärer Membranen durch ein verändertes Angebot an mehrfach ungesättigten Fettsäuren mit einer Änderung der Aktivität von Membranrezeptoren einhergeht. In weiterführenden Experimenten wurde deshalb der Einfluß von EGF auf das Wachstum der mit der Omega-3-fettsäurereichen Fischölemulsion vorbehandelten Pankreaskarzinomzelllinie Mia-Paca-2 untersucht. • Eine Präinkubation der Mia-Paca-2 Zellen mit der Omega-3-fettsäurereichen Fischölemulsion führte zu einer Umkehrung des wachstumsfördernden Effektes von EGF. Eine entscheidende Determinante in der Entwicklung und dem Wachstum von Tumoren ist deren Sensitivität gegenüber chemotherapeutischer Behandlung. Das Auftreten von chemotherapieresistenten Tumorzellen ist häufig limitierender Faktor für eine erfolgreiche zytostatische Therapie. In einem weiteren Versuchsansatz sollte deshalb der Fragestellung nachgegangen werden, ob eine Verbesserung der Wirksamkeit gängiger Chemotherapeutika in der Antitumortherapie von Pankreas- und Kolonkarzinomen nach kombinierter Behandlung mit der Fischölmulsion zu erwarten ist. • Der Einsatz der Fischölemulsion in Kombination mit Gemcitabin und 5-FU bei Mia-Paca-2 Zellen bzw. Caco-2 Zellen führte zu einem additiven wachstumshemmenden Effekt. Die Ergebnisse der vorliegenden Arbeit belegen, dass Omega-3-fettsäurereiche Lipidemulsionen eine sinnvolle adjuvante therapeutische Maßnahme in der Behandlung des Pankreas- und Kolonkarzinoms darstellen können.
Wir haben Interaktion in der Kommunikationskomplexität untersucht und dabei die drei Modi probabilistische, (beschränkt) nichtdeterministische und quantenmechanische Kommunikation betrachtet. Bei allen drei Modi haben wir herausgefunden, dass Interaktion für Effzienz oft unerlässlich ist, im nichtdeterministischen Fall gibt es eine Abhängigkeit zwischen dem Einfluss der Interaktion und der erlaubten Anzahl der nichtdeterministischen Ratebits. Abgesehen von dem erreichten besseren Verständnis des Kommunikationsmodells haben wir verschiedene Anwendungen auf andere Berechnungsmodelle beschrieben, bei denen untere Schranken der Kommunikation zu unteren Schranken für andere Ressourcen in diesen Modellen geführt haben. Ein Beispiel eines kommunikations- und interaktionsbeschränkten Modells sind endliche Automaten, welche wir in allen drei Modi untersucht haben. Ein weiteres Beispiel sind Formeln, für die wir eine Verbindung zwischen Einweg Kommunikation und Formellänge herstellen konnten. Diese Verbindung führte zu unteren Schranken für probabilistische, nichtdeterministische und Quanten Formeln. Dabei sind die unteren Schranken für Quanten Formeln und probabilistische Formeln im wesentlichen gleich. Für monotone Schaltkreise haben wir gezeigt, wie nichtdeterministisches Raten die Tiefe drastisch reduzieren kann, und wie eine geringfügige Einschränkung der nichtdeterministischen Ratebits zu einer Tiefenhierarchie führt. Insgesamt lässt sich feststellen, dass die Schwäche interaktionsbeschränkter Kommunikation mathematisch nachvollziehbar ist. Außerdem scheint ein solches Verhalten in der Welt einfacher Berechnungsmodelle häufig aufzutreten. Oder anders gesagt, viele Berechnungsmodelle sind deshalb einfacher zu verstehen, weil sie durch interaktionsbeschränkte Kommunikation analysierbar sind.
Als Sohn Therese Alzheimers geb. Busch (1840-1882) und des Notars Eduard Alzheimer (1830-1891) wurde Alois Alzheimer am 14. Juni 1864 in Marktbreit (Landkreis Kitzingen) geboren. Er hatte zwei Schwestern und drei Brüder sowie einen Halbbruder und eine Halbschwester. Als Zehnjähriger kam Alois Alzheimer nach Aschaffenburg und absolvierte bis Juli 1883 das Königliche humanistische Gymnasium, wie bereits sein Vater und dessen fünf Brüder. Nach dem Militärdienst in Aschaffenburg studierte Alois Alzheimer ab dem Wintersemester 1883 Medizin in Berlin, Tübingen und Würzburg. Nach dem Staatsexamen im Juni 1888 in Würzburg wurde er mit der Dissertation „Über die Ohrenschmalzdrüsen“ zum Dr. med. promoviert. Nach einer Assistentenzeit bei seinem Doktorvater Albert von Koelliker (1817-1905) begleitete er eine geisteskranke Dame auf ihren Reisen. Ende 1888 wurde Alois Alzheimer Assistenzarzt und 1895 Oberarzt in Frankfurt a. M. bei Emi Sioli (1852-1922), wo er ab Ende 1901 die erste bekannte Alzheimer-Kranke, Auguste Deter (1850-1906), behandelte.
Alois Alzheimer heiratete 1894 die Witwe Cecilie Geisenheimer geb. Wallerstein (1860-1901). Sie hatten drei Kinder: Gertrud Stertz geb. Alzheimer (1895-1980), Hans Alzheimer (1896-1981) und Maria Finsterwalder geb. Alzheimer (1900-1977). Alois Alzheimer hatte auch zwei Patenkinder: Alois Alzheimer (1892-1892) und Generaldirektor Dr. jur. Alois Alzheimer (1901-1987).
Alois Alzheimer (1864-1915) war ab 1903 Mitarbeiter Emil Kraepelins (1856-1926) in Heidelberg und München. Neben seiner ärztlichen Tätigkeit habilitierte sich alois Alzheimer 1904 mit der Arbeit „Histologische Studien zur Differentialdiagnostik der progressiven Paralyse“ habilitierte. Hierfür erhielt er im Januar 1912 in Leipzig den Paul-Julius-Möbius-Preis. Alois Alzheimer wurde 1904 Privatdozenten und 1909 außerordentlichen Professor in Bayern ernannt. In der im Herbst 1910 publizierten 8. Auflage seines Psychiatrie-Lehrbuchs, das im Herbst 1910 erschien, verwendete Emil Kraepelin erstmals das Eponym „Alzheimersche Krankheit“. Alois Alzheimer verdanken wir wesentlich mehr als diesbezügliche Forschungen und seine beiden Publikationen von 1906 und 1911 zu der später nach ihm benannten Krankheit, wodurch sein Name weltweit bekannt wurde und bis heute ist. Die von ihm bearbeiteten neurologischen und psychiatrischen Gebiete weisen kaum Überschneidungen auf. Er betrat mehrfach wissenschaftliches Neuland oder entwickelte Erkenntnisse weiter. Zu nennen sind hier u. a. seine Publikationen über Schizophrenie, Chorea Huntington, Epilepsie, Encephalitis, Erschöpfungspsychosen, manisch-depressives Irresein, Lumbalpunktion, Fetischismus, Indikationen für eine künstliche Schwangerschaftsunterbrechung bei Geisteskranken, Delirium, „geborene Verbrecher“, Alkoholkrankheit und Kriegsneurosen.
Zusammen mit seinem Chefarzt Emil Kraepelin behandelte Oberarzt Alois Alzheimer auch überegional bekannte Patienten wie den Nobelpreisträger Emil von Behring (1854-1917) und sog. „Wolfsmann“ Sergius Pankejeff (1887-1979) sowie das Vorbild für die „Clarisse in Robert Musils (1880-1942) Roman „Mann ohne Eigenschaften“, Alice Donath geb. Charlemont (1885-1939). Alois Alzheimer genoss schon zu Lebzeiten ein internationales Renommee. Gastärzte und Assistenten waren unter anderem Solomon Carter Fuller (1872-1953), Francesco Bonfiglio (1833-1966), Gaetano Perusini (1879-1915), Alfons Jakob (1884-1931) und Hans-Gerhard Creutzfeldt (1885-1961). Alois Alzheimer war ab 1910 zusammen mit Max Lewandowsky (1876-1918) Schriftleiter der neuen "Zeitschrift für die gesamte Neurologie und Psychiatrie".Im Juli 1912 wurde Alois Alzheimer ordentlicher Professor für Psychiatrie und Neurologie in Breslau und Chefarzt der Universitätsklinik. Er war zu Beginn des Ersten Weltkrieges auch im dortigen Festungslazarett eingesetzt.
Alois Alzheimer starb am 19. Dezember 1915 an Herzmuskelentzündung und Nierenversagen. Er wurde auf dem Hauptfriedhof in Frankfurt a. M. neben seiner Ehefrau beigesetzt.
In einem eigenen Kapitel werden die Geschichte der Alzheimer-Krankheit beleuchtet und aktuelle Erkenntnisse aufgezeigt. Die vorliegende Arbeit wird ergänzt durch relevante Hinweise auf die rechtliche Vorsorge durch eine Patientenverfügung und Vollmacht, ggf. die Errichtung einer Rechtlichen Betreuung, wenn ein/e Alzheimer-Kranke/r seine Angelegenheiten nicht mehr selbst regeln kann und in geistig gesunden Tagen keine schriftlichen Festlegungen getroffen hat. Erläutert werden ebenso Nachteilsausgleiche bei Schwerbehinderung sowie Hilfen bei Krankheit und Pflegebedürftigkeit: häusliche Pflege in Privatwohnungen oder Anlagen für Betreutes Wohnen, Tagespflege, Kurzzeitpflege und vollstationäre Dauerpflege in Seniorenheimen. Aufgezeigt werden auch Leistungen der Krankenkassen und Zuschüsse nach dem Pflegeversicherungsgesetz sowie bei Bedürftigkeit ergänzende Sozialhilfe zu erhalten.
In der vorliegenden Arbeit wurden zehn Substanzen, die im Rahmen des Projekts INTAFERE analytisch in verschiedenen Gewässersystemen des Hessischen Rieds nachgewiesen werden konnten, ökotoxikologisch charakterisiert. Neben der Bestimmung der Akut- und der chronischen Toxizität wurde auch das endokrine Potential mit Hilfe eines rekombinanten Hefe-Assays ermittelt.Die akute Toxizität zeigt zwischen den verschiedenen Substanzen große Differenzen. Die drei Organophosphate TCPP, TBEP und TCEP zeigen selbst bei hohen Konzentrationen keine oder nur sehr geringe Effekte, während 4-NP, 4-t-OP, BPA, TDCPP, AHTN und Terbutryn mit LC50-Werten bis zu 5 mg/l eine höhere Toxizität besitzen.Im Hefe-Assay kann in mehreren Versuchswiederholungen das östrogene Potential von 4-NP (MW: 6,71x10-6 M), 4-t-OP (MW: 7,16x10-6 M) und BPA (MW: 4,88x10-6 M), sowie die antiandrogene Wirkung des Bisphenols (5,29x10-5 M) bestätigt werden. Im Gegensatz dazu können im Yeast Antiestrogen Screen zum ersten Mal Hinweise auf die antiöstrogene Wirkung von TCPP (MW: 6,86x10-5 M), Terbutryn (MW: 3,99x10-5 M), TDCPP (MW: 2,65x10-6 M) und TBP (MW: 2,28x10-5 M) aufgezeigt werden.TBP und TDCPP führen auch in der chronischen Exposition bei Potamopyrgus antipodarum zu einer Reduktion in der Embryonenzahl (mehrfach beobachtete NOEC beider Substanzen: 6,25 mg/kg), ein Effekt, der zunächst nicht von einer toxischen Wirkung unterschieden werden kann. Allerdings scheint sich ein antiöstrogener Wirkmechanismus auf die Schnecken bei den Versuchen zur Mischtoxizität zu bestätigen, da die gleichzeitige Exposition gegenüber BPA und 4-tOP zu einer geringfügigen Aufhebung des Effekts führt. Potamopyrgus reagiert ebenfalls mit einer Reduktion der Embryonenzahl bei der Exposition gegenüber AHTN (mehrfach beobachtete NOEC: 2 mg/kg), zeigt sich aber insensitiv gegenüber der Belastung mit Terbutryn.Die Exposition von Chironomus riparius gegenüber den verschiedenen Substanzen führt bis auf eine Ausnahme zu keinen signifikanten substanzbedingten Beeinträchtigungen. Einzig das s-Triazin Terbutryn verursacht eine hohe Mortalität mit einer NOEC (28 d) von 250 μg/kg. Eine Toxizität auf den Anneliden Lumbriculus variegatus zeigt sich lediglich bei derExposition gegenüber BPA (NOEC: 10 mg/kg; Biomasse, 28 d) und 4-NP (EC10: 6,88 mg/kg; 95% KI: 3,97-11,9; Reproduktion, 28 d). Die durchgeführten Versuche zur Toxizität von Mischungen zeigen eine größere Gefährdung auf als bei Vorliegen der Einzelsubstanzen in Konzentrationen unterhalb ihres Schwellenwertes zu vermuten wäre. Allerdings lassen sich die mit dem Hefe-Assay erzielten Ergebnisse aufgrund großer Variabilitäten zwischen den einzelnen Versuchswiederholungen nicht immer eindeutig mit Hilfe des additiven oder des unabhängigen Modells beschreiben, zeigen dabei jedoch trotzdem ein gegenüber den Einzelsubstanzergebnissen verändertes Risiko auf. Um diesem in der Risikobewertung Rechnung zu tragen, wird ein Verfahrensvorschlag entwickelt, in dem durch zusätzliche Sicherheitsfaktoren für PNECs ein Überschreiten des risikoanzeigenden Werts von 1 des PEC/PNEC-Quotienten einer Mischung verhindert werden kann.
Während sich das deutsche Erziehungs-, Bildungs- und Sozialsystem durch Achtung und Expansion „institutioneller Vielfalt“ auszeichnet, wird in Spanien spätestens seit 1990 mit unterschiedlicher Intensität, je nach Regierung, ausgehend von der LOGSE Reform an einer „Schule für alle“ gearbeitet. Es werden vergleichsweise wenige Kinder in Sondereinrichtungen beschult. Die Strategien und die dahinter liegenden Vorstellungen, wie Partizipation zu realisieren sei, waren Ende letzten Jahrhunderts in beiden Ländern deutlich verschieden. Die in der Dissertation vorgestellten Daten zeigen jedoch, dass zu wenige Kinder die Kompetenzen für eine gegenwärtige und zukünftige persönlich und wirtschaftlich erfolgreiche Lebensführung erwerben. Zentral für die Arbeit ist die von Urie Bronfenbrenner entwickelte systemökologische Theorie der menschlichen Entwicklung. Im Kern geht es bei dieser Theorie immer um die Suche, das Finden und Gestalten optimaler Bedingungen für menschliche Entwicklung. Die Fragestellung der Arbeit ist, wie in Deutschland und Spanien, aber auch wie Professionelle, interdisziplinär die Aufgabe der Integration und Partizipation im Rahmen ihrer Vorgaben bewältigen. Die Arbeit ist in zwei große Teile unterteilt. Die ersten Kapitel sind eine Sammlung von Daten, Theorien, Praxen, Diskussionen und geschichtlichen Entwicklungen, die die schulische Integration von Kindern mit Behinderungen bzw. mit schwierigen Lebenslagen, darstellt. Ab Kapitel sieben wird dann mit Methoden der qualitativen Sozialforschung nach Ressourcen und Kompetenzen, die in Spanien wie in Deutschland vorliegen bzw. entwickelt werden müssen gesucht, um auch Kindern mit Schwierigkeiten eine für sie persönlich erfolgreiche Bildung zur ermöglichen. Nach einem Einführungskapitel werden im zweiten Kapitel Theorien und Modelle der Integrationspädagogik und der an ihr beteiligten Disziplinen diskutiert. Das folgende Kapitel stellt ausgewählte Studien vor, die sich mit Lern- und Lebenslagen von Kindern befassen, denn der gesellschaftliche wie der wissenschaftliche Blick auf die Kindheit hat sich gewandelt. Ein integratives bzw. inklusives Erziehungs- und Bildungssystem wäre eine passende Antwort auf den Wandel. Das vierte Kapitel gibt einen Einblick in das bundesdeutsche Bildungssystem und stellt statistische Daten zur integrativen Beschulung in den Bundesländern vor. Das fünfte Kapitel befasst sich mit dem spanischen Bildungssystem. Das starke Engagement der Katholischen Kirche im 19. und auch noch im 20. Jahrhundert, die Francozeit und die Transición sind die Basis, auf der in den 90 ziger Jahren des letzten Jahrhunderts die, auf 10 Jahre angelegte LOGSE Reform geplant und teilweise umgesetzt wurde. Diese als top-down zu bezeichnende systemische Reform, wird mit ihren Elementen der integrativen und der kompensatorischen Erziehung dargestellt. Die Beschreibung der spanischen Reformentwicklungen endet im Jahr 2004. Der empirische Teil der Arbeit beginnt im Kapitel sechs mit Gedanken zur Qualitativen Sozialforschung. Im Kaptitel sieben wird die Gegenstandsnahe Theoriebildung vorgestellt. Das achte Kapitel befasst sich mit dem Zirkulären Dekonstruieren. Im neunten Kapitel werden die deutschen und die spanischen Interviewpartner in ihrer professionellen Expertenrolle als Grundschullehrerin, Sozialarbeiterin, Erziehungswissenschaftler, Psychologe, Unterstützungslehrerin, Physiotherapeut und Förderschullehrerin vorgestellt. Sechs Interviews fanden Ende 1999, also zu einer Zeit in der die LOGSE Reform bereits fast abgeschlossen sein sollte, statt. Das siebte Interview mit der Förderschullehrerin wurde 2001 geführt. Verständigung und Bewertung konnten aus den Kategorien der Interviews als wichtige Ressourcen für integrative schulische Arbeit erkannt werden. Im Kaptitel zehn wird der ökosystemische Ansatz vertieft dargestellt. Im elften Kapitel werden dann systematisch die Definitionen der Ökosystemischen Theorie auf die Lebensbereiche, die ein Kind betreffen, bzw. die herausgearbeiteten Kategorien angewendet. In diesen Lebensbereichen werden interdisziplinär und über die Ländergrenzen hinweg, die Kategorien diskutiert, um zu Aussagen über gute Entwicklungsbedingungen zu kommen. Die Kapitel zwölf bis vierzehn verbinden die Ergebnisse der Auswertung mit den zusammengetragenen Daten und Fakten zur Situation in Deutschland und Spanien. Als förderlich für die Integration, die auf allen Systemebenen angelegt sein sollte, werden beispielhaft folgende Kriterien beschrieben: eine integrative Grundhaltung, ein moderat konstruktivistischer Unterricht, die Anerkennung und Förderung aller Kompetenzen der Kinder, die Arbeit mit dem entwicklungsfördernden Potential, Kontinuität in den Beziehungen, Strukturen und Räumen, Bestreben nach müheloser Kommunikation. Seitenzahl: 400 Abbildungen: 55 Tabellen: 52
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Der Erforschung der Bronzestatuetten der Frühen Neuzeit im 19. Jahrhundert wurde bisher wenig Beachtung geschenkt. Die erste umfassende stilkritische Gattungsmonographie mit dem Titel „Die Italienischen Bronzestatuetten der Renaissance“ wurde von Wilhelm von Bode (1845 - 1929) verfasst. Er veröffentlichte diese kurz nach der Eröffnung des neu gebauten Kaiser-Friedrich-Museums in Berlin 1904. Maßgeblich durch Bode geprägt, zeigte dieses Museum erstmals Bronzestatuetten der Renaissance und des Barock als eine eigenständige Skulpturengattung. Die wissenschaftshistorische Frage nach der Entstehung der stilkritischen Kleinbronzenforschung zwischen 1871 und 1904 steht daher im Kontext der Berliner Museums- und Sammlungsgeschichte, mit dem Schwerpunkt auf der Erwerbung der Kleinbronzen, deren Zuschreibung und Präsentation. Ein 1883 veröffentlichtes Konzept für ein Berliner „Renaissancemuseum“ verknüpfte mit der Sammlungspräsentation die Erwartung, der ästhetischen Selbstvergewisserung ihrer Betrachter zu dienen. Die Kunst der Renaissance, darunter auch die Bronzestatuetten, war dabei Sinnbild des modernen bürgerlichen Autonomiebestrebens. Diesem Leitbild stand die Arbeitsorganisation ihres Erforschers Wilhelm von Bode gegenüber, die seine historische Theorie und stilkritische Methode prägte. Neben dem Einfluss Jakob Burckharts und dessen „Kunstgeschichte nach Aufgaben“ geben Bodes Briefwechsel mit Theodor von Frimmel, Louis Courajod und dem Sammler Fürst Johann II. von und zu Liechtenstein Aufschluss über sein Forschungsinteresse. So fokussierte er seine Forschung auf die Statuetten des Bildhauers und Bronzemodelleurs Bertoldo di Giovannis. Hier lässt sich der Wandel von einer kulturgeschichtlichen Perspektive hin zu einer historisch-kritischen Analyse der Statuetten verfolgen. Mit der Transformation der so genannten „Kopienkritik“ aus der klassischen Archäologie und mit Hilfe der Fotografie entwickelte Wilhelm von Bode eine Methode für die stilkritische Analyse der kleinformatigen Skulpturen.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Ziel dieser Arbeit war es, die Zytotoxizität von Treosulfan und Busulfan auf Leukämiezellen von pädiatrischen Patienten mit Akuten Leukämien zu untersuchen. Im Rahmen dieser Arbeit wurden in vitro und erste in vivo Untersuchungen durchgeführt: 1. In vitro Untersuchungen Zuerst wurde eine durchflusszytometrische Methode optimiert zum Nachweis der Zytotoxizität von Treosulfan und Busulfan auf maligne Zellen pädiatrischer Patienten mit Akuten Leukämien. Mit diesem durchflusszytometrischen Assay war es möglich, die Zytotoxizität auf maligne von der auf nicht maligne Zellen zu unterscheiden. Dies war unerlässlich, da in den frisch isolierten Leukämiezellen der Patienten bis zu 55% normale Lymphozyten enthalten waren. Darüber hinaus erlaubte diese Methode die simultane Bestimmung der Zell-Apoptose in jeder Probe. An Leukämie-Zelllinien wurde dieser multiparametrische Assay anschließend mit dem MTT-Assay verglichen. Es konnte gezeigt werden, dass die Bestimmung von Zytotoxizitäten mit beiden Methoden an den Zelllinien Molt 4/8 und H9 gut korrelierte (r≥0,95). Für das Arbeiten mit Patientenmaterial wurde ausschließlich die durchflusszytometrische Methode angewendet, da in den Proben der Patienten die Differenzierung zwischen leukemischen Zellen und normalen Lymphozyten essentiell war. In den Leukämie-Zelllinien Molt4/8, H9 und K562 zeigte sich, dass Treosulfan eine stärkere Zytotoxizität zeigte als Busulfan. In die Untersuchungen frischer Leukämiezellen pädiatrischer Patienten mit Akuten Leukämien konnten 24 Proben unterschiedlicher Leukämien (cALL, reife B-ALL, reife TALL, AML) und unterschiedlicher Erkrankungszeitpunkte (bei Diagnose oder bei Rezidiv) eingeschlossen werden. In diesen Proben zeigte Treosulfan eine deutlich bessere Wirkung als Busulfan. Es wurde trotz des kleinen Patientenkollektivs deutlich, dass die T-ALL gegenüber der cALL sensitiver auf Treosulfan reagiert. Außerdem war die Zytotoxizität von Treosulfan und Busulfan gegenüber der T-ALL signifikant höher als gegenüber c-ALL (Treosulfan: p=0,02, Busulfan: p=0,03). Die IC50-Werte stiegen vom Zeitpunkt der Diagnose (Median: Treosulfan: 11,45 μM, Busulfan: 96,45 μM) über die Progression (Median: Treosulfan: 45,95 μM, Busulfan: 253,75 μM) bis zum Rezidiv (Median: Treosulfan: 153,15 μM, Busulfan: 223,3 μM) hin an, und zwar um das 8-fache bei Treosulfan und das 2,5-fache bei Busulfan. Der Unterschied der Zytotoxizität von Treosulfan auf Leukämieproben zum Zeitpunkt der Diagnose gegenüber dem Rezidiv war statistisch signifikant (p=0,02). Für Busulfan ergab sich für diese Untersuchungszeitpunkte keinen signifikanten Unterschied (p=0,13). Vergleichend zu den Ergebnissen an frisch isolierten Leukämiezellen wurde die Wirkung von Treosulfan und Busulfan auf normale Lymphozytensubpopulationen und Stammzellen untersucht. Auch hier zeigte Treosulfan eine stärkere Zytotoxizität im Vergleich zu Busulfan. Insgesamt reagierten normale Lymphozyten sensitiver auf die Alkylanzien im Vergleich zu den Leukämiezellen (Mediane IC50-Werte für Treosulfan und Busulfan auf Lymphozyten: 12,3 μM und 89,9 μM, auf Leukämieproben: 30,6 μM und 133 μM mit p=0,03 und p=0,02). In einem weiteren Experiment sollte die Interaktion von Treosulfan und Busulfan mit Fludarabin untersucht werden. Fludarabin ist ein Purin-Analogon, das in der Pädiatrie in Kombination mit Alkylanzien zur Chemo-Konditionierung eingesetzt wird. Bei der Inkubation von Fludarabin mit Treosulfan-Konzentration größer 1 μM war ein deutlicher Synergismus zu verzeichnen. Die Kombination von Fludarabin mit Busulfan ergab Antagonismus. 2. In vivo Untersuchungen Es wurde die zelluläre Immunrekonstitution bei pädiatrischen Patienten mit AML (n=9) nach allogener Knochenmarktransplantation überwacht. Ein Patient wurde mit Treosulfan konditioniert (n=1), die anderen Patienten (n=8) erhielten Busulfan zur Konditionierung. Die Rekonstitution der Leukozyten, B-Zellen, NK-Zellen und T-Helferzellen verlief in beiden Gruppen ähnlich. Ein signifikanter Unnterschied konnte für die Rekonstitution der CD3+CD8+ zytotoxischen T-Zellen gezeigt werden, die bei dem Patienten, der mit Treosulfan konditioniert wurde, signifikant niedriger war im Vergleich zur Busulfangruppe. Da bei dem Patienten, der Treosulfan erhielt, die CRP-Werte über einen längeren Zeitraum erhöht waren und Infektionen die Rekonstitution von zytotoxischen T-Zellen maßgeblich beeinflussen, bietet dies eine mögliche Erklärung für diesen Unterschied. Aussagen können jedoch nur mit einem größeren Patientenkollektiv getroffen werden.
In der vorliegenden Studie wurden 7 Dentin-Adhäsive (Adper Prompt-L-Pop, Prompt L-Pop, Xeno III, I-Bond, One-up-Bond, Prime&Bond NT, Scotchbond 1) bezüglich ihrer Zytotoxizität anhand primärer Gingivafibroblasten im Zellkulturtest untersucht. Die Studie wurde in Vorversuche und Hauptversuche unterteilt. Die Vorversuche dienten unter anderem dazu, im vornherein den pH-Wert zu bestimmen und die Dentin-Adhäsive auf ihre Viskosität in der Petrischale hin zu untersuchen. In den Hauptversuchen wurden die Eluate nach 24 und nach 48 Std. anhand der Parameter „lebende Zellen“ und „tote Zellen“ mittels des Cell Counters ausgewertet. Dem gegenüber stehen deskriptive Ergebnisse die keine statistische Relevanz haben. Die Ergebnisse bezüglich der Zytotoxizität lassen sich wie folgt zusammenfassen: • Scotchbond1, I-Bond und Prime&Bond NT weisen signifikant weniger lebende Zellen auf als die Zellkontrolle. Zueinander erwiesen sich die Materialien als nicht signifikant unterschiedlich. • Adper Prompt-L-Pop, Prompt-L-Pop, Xeno III und One-up-Bond sind bezüglich der Parameter „lebende Zellen“ und „tote Zellen“ nicht signifikant unterschiedlich zur Zellkontrolle. • Der Parameter „tote Zellen“ ergab keinerlei statistische Signifikanz. • Die qualitative Auswertung stimmt mit der quantitativen Ergebnisdarstellung überein. Unter der Limitation dieser in-vitro-Studie kann keine Empfehlung für die klinische Anwendung der Dentinadhäsive „Scotchbond 1“, „I-Bond“ und „Prime&Bond NT“ abgegeben werden.
In der vorliegenden Studie wurden fünf Dentinadhäsive (Prime & Bond, Optibond Solo, Scotchbond, Syntac Single Component und Syntac Sprint) sowie ein Gemisch aus Phosphor- und Flusssäure bezüglich ihrer Zytotoxizität anhand des Agar-Diffusionstests mit humanen Gingivafibroblasten untersucht. In den Vorversuchen wurden die zu testenden Haftvermittler auf sterilen Deckgläsern angesetzt, den gezüchteten Zellen ausgesetzt und deren Reaktion mittels Mikroskop beurteilt. Mittels dieser Vorversuche sollte untersucht werden, inwieweit überhaupt eine Zytotoxizität unter den zu testenden Mitteln vorlag oder ob es auch Mittel gab, die gar nicht toxisch auf die Zellen wirkten. In den ersten drei Hauptversuchen wurden die Dentinscheiben der Größe 500 mikro m, 400 mikro m, 300 mikro m, 200 mikro m und 100 mikro m zur Konditionierung mit dem Gemisch aus Phosphor- und Flusssäure vorbehandelt, mit dem jeweiligen Haftvermittler nach Vorschrift bedeckt und nachfolgend auf die gezüchteten Zellen aufgelegt. Der vierte Versuch diente dem direkten Vergleich zwischen dem in dieser Studie verwendeten Ätzgemisch und dem in einer vergleichbaren Studie verwendeten Ätzmittel Conditioner 36. In der vorliegenden Studie konnte eine Zytotoxizität aller untersuchten Dentinadhäsive und auch des untersuchten Gemischs aus Phosphor- und Flusssäure beobachtet werden. In der Gruppe der Dentinadhäsive schnitt das Material Optibond Solo am besten ab, gefolgt von Scotchbond, Prime & Bond und Syntac Single Component. Die stärkste Zytotoxizität wies das Material Syntac Sprint auf. Auch das Ätzmittelgemisch aus Phosphor- und Flusssäure war im Vergleich zu dem Testpartner Conditioner 36 gleich schädlich für die Gingivafibroblastenzellen.
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
... Die drei Unternehmen, aus deren Geschichte hier erzählt wird, Bayer, Hoechst und Schering, waren bis zum Ende des Zweiten Weltkrieges Chemiekonzerne, die u.a. auch Arzneimittel herstellten und verkauften. Als erste Firma hat sich Schering nach dem Zweiten Weltkrieg weitgehend auf Pharmazeutika konzentriert und sich wie Hoechst am Ende des Jahrhunderts ganz von seinen Chemieaktivitäten getrennt. Allein Bayer bietet weiterhin eine breite Palette von chemischen Produkten an. ...
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Die Dissertation mit dem Titel „Zwischen Inter- und Transnationalismus: Die Kommunikationspolitik der UNESCO nach 1989/1990“ von Sami Rabieh widmet sich dem Wandel in der UNESCO-Kommunikationspolitik seit dem Ende des Ost-West Konflikts, um zu klären, welche demokratisierenden Gestaltungspotenziale eine auf die Organisation gerichtete Kommunikationspolitik bietet und welche anderen Pfade gegebenenfalls noch darüber hinaus beschritten werden müssen. Aufbauend auf v.a. gramscianischen Theoriesträngen werden zunächst aktuelle soziale Transformationsprozesse („Globalisierung“) als Interpretationsrahmen für die Analyse der UNESCO dargestellt. Dem folgt eine historische Aufarbeitung der internationalen Kommunikationspolitik bzw. der UNESCO bis 1989/1990 sowie ein empirischer Teil, der die Entwicklung der Organisation im Politikfeld bis in die Gegenwart untersucht. Eine Synopse und Erörterung alternativer Handlungsoptionen schließen die Arbeit ab. Zusammengenommen erweist sich die Eingangsthese zur Herausbildung eines transnationalen Systems und die damit verbundene Skepsis bezüglich der Demokratisierungspotentiale inter-staatlicher Apparate als korrekt. Die politische Form und Praxis der UNESCO, in der ausschließlich Staatenvertreter zu Kommunikationsprozessen und Entscheidungen fähig und befugt sind, hat im Internetzeitalter keine Grundlage mehr und wird wegen neuer politischer Terrains sowie der Beliebtheit amerikanischer Pop- und Cyberkulturen kein „comeback“ mehr erleben. Emanzipatorische Strategien sollten sich deshalb auf eine basisdemokratische Vernetzung mittels neuer Medien konzentrieren.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
1. Analysiert werden die Daten aus dem Pädiatrischen Register für Stammzelltransplantation der Patienten, die nach einer ersten Stammzelltransplantation ein Folgerezidiv erlitten und mit einer zweiten Transplantation behandelt wurden.
2. In dem erfassten Zeitraum von 1988 bis 2007 sind im PRST 158 Patienten als Zweit-SZT nach Folgerezidiv erfasst. Letztlich konnten 106 Patienten in die Analyse aufgenommen werden.
3. Von den 106 pädiatrischen Patienten, die mit einer zweiten Transplantation wegen eines Rückfalls nach erster Transplantation bei ALL, AML und MDS behandelt wurden, haben 33 Patienten (ca. 30 %) ein ereignisfreies Langzeitüberleben erreicht. Aufgrund der vielen frühen Ereignisse fällt die Kaplan-Meier-Überlebenskurve auf errechnete 12 %. Die Nachbeobachtungszeit beträgt dabei im Mittel 27,5 Monate. Ein erneutes Rezidiv führt in der Regel zum Versterben des Patienten an einer Progression der Grunderkrankung. Lediglich 1 Patient mit ALL dieser Gruppe lebt in CR nach 3. Stammzelltransplantation. Dies entspricht einem Overall Survival von 32 %. Diese Daten sind vergleichbar mit den in der Literatur mitgeteilten.
4. Eine Analyse der in Frankfurt betreuten Patienten zeigt, dass nur 20% der Patienten mit Rezidiv nach 1.SZT zu einer 2.SZT gelangen. Auch dies entspricht den in der Literatur berichteten Ergebnissen.
5. Mädchen haben eine bessere Prognose als Jungen, insbesondere Mädchen jünger als 10 Jahre zum Zeitpunkt der Zweiten Transplantation zeigen ein ereignisfreies Überleben von 42 %.
6. Die Toxizitätsanalysen zeigen, dass die Hälfte der Ereignisse durch Transplantations-abhängige Mortalität bedingt ist. Die Verwendung eines Konditionierungsregimes mit reduzierter Intensität und erhofft reduzierter Toxizität verringert interessanterweise nicht die TRM-Rate, wohl aber die Rückfall-Rate.
7. Ein Mindestabstand von 200 Tagen zwischen den beiden Transplantationszeitpunkten führt zu einem signifikant besseren Ergebnis beim ereignisfreien Überleben, dabei kann nicht mit ausreichender Signifikanz gesagt werden, dass die Remissionsdauer nach 1. SZT in unserem Kollektiv von Bedeutung ist für das Langzeitüberleben, auch wenn ein Trend erkennbar ist. Remissionsdauern von mehr als 9 Monaten nach 1.SZT haben keinen zusätzlichen positiven Einfluß auf das Langzeitüberleben.
8. Patienten mit akuter Leukämie müssen vor einer zweiten Transplantation in einer morphologischen Remission sein, um eine realistische Chance auf Heilung zu haben.
9. Patienten, die nach 2003 einer Zweittransplantation unterzogen wurden, schneiden nicht signifikant besser ab, als die vor dem Jahr 2003 transplantierten. Dafür gibt es sicher eine Reihe von Gründen, die analysiertern Gruppen unterliegen aber einem BIAS. Unter anderem ist die Verteilung der Erkrankungen nicht gleich. Aber auch die unterschiedlich langen Remissionszeiträume deuten an, dass vor 2003 eine etwas andere Patientengruppe zweittransplantiert wurde als nach 2003. Die unterschiedlichen Mediane der Zeitintervalle zwischen den beiden Transplantationen mit einem deutlich längeren Zeitintervall in der Gruppe der nach 2003 transplantierten zeigen weiterhin an, dass insgesamt ein anderes therapeutisches Verhalten nach dem Rückfall nach erster Transplantation eingenommen wird und eine längere Intervallbehandlung in das Therapiekonzept eingeschlossen wird.
10. Die Patienten profitieren von akuter GvH bezüglich des ereignisfreien Überlebens. Höhergradige akute GvH führt aber entweder zu TRM oder mündet in ausgedehnter chronischer GvH. Auch chronische GvH bietet einen Schutz vor Rückfall. Aussagen über die Lebensqualität dieser Patienten können aus den gewonnenen Daten nicht gemacht werden.
11. Während ein Spenderwechsel bei 2. SZT offensichtlich nicht zu einem besseren Ergebnis beiträgt, zeigen Transplantationen von einem mismatch Spender und Transplantationen mit einem T-Zell-depletierten Graft ein gleichwertiges Ergebnis zu konventionellen Transplantationen. Die -allerdings sehr- kleine Gruppe der Patienten, die mit RIC konditioniert und von einem CD3/CD19 depletierten Grafteines haploidenten Familienspender transplantiert wurden, haben mit einem Overall Survival von 5/5 und einem EFS von 4/5 ein exzellentes Ergebnis. Ob dieses Behandlungskonzept zu einem besseren Outcome führen kann, muß in Zukunft aber noch an größeren Fallzahlen gezeigt werden.
12. Die in Frankfurt betreuten, lebenden Patienten zeigen durchweg eine zufriedenstellende bis gute Lebensqualität. Eine Frankfurter Patientin ist an eine ausgedehnten chronischen GvH nach langem schwerem Verlauf mit sehr eingeschränkter Lebensqualität gestorben.
13. Zweitmalignome sind ausser dem detailliert beschriebenen Frankfurter Patienten keine weiteren bisher berichtet worden. Nach den PRST- Daten ist ein Folge-Rezidiv nach erster Stammzelltransplantation bei ALL, AML und MDS therapeutisch keine ausweglose Situation und ein erneuter kurativer Behandlungswunsch der Patienten und ihrer Familien sollte unterstützt werden. Um aussagefähige Daten zu erhalten, sind allerdings prospektiv durchgeführte Studien erforderlich, die neben der Frage der optimalen SZT-Modalitäten zusätzlich auch Aussagen zur Lebensqualität treffen können müssen.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
Die in der vorliegenden Arbeit gewonnenen Erkenntnisse zur Reaktivität zweifach reduzierter 9,10-Dihydro-9,10-diboraanthracene [A]2– erweitern das Einsatzspektrum von Hauptgruppenverbindungen im Hinblick auf die Aktivierung kleiner Moleküle. Komplementär zu Übergangsmetallkomplexen und FLPs ermöglichen die Salze M2[A] (M+ = Li+, Na+, K+) die Entwicklung neuartiger Synthesestrategien. Als besondere Herausforderung gilt die Aktivierung des stabilen H2-Moleküls, dessen Bindung die Dianionen [A]2– homolytisch in einer konzertierten Reaktion spalten.
Untersuchungen zur Kinetik der H2-Addition an M2[A] stellten die Abhängigkeit dieses Reaktionsschritts vom borgebundenen Substituenten und vom Kation heraus. Eine geringe sterische Abschirmung der Boratome durch kleine borgebundene Substituenten (C≡CtBu, Me, H) begünstigt die H2-Aufnahme gegenüber großen Substituenten (pTol, Xyl, Et). Die maximale Ausbeute an M2[A-H2] wird für M+ = Li+ erst nach mehreren Tagen bei 100 °C erhalten, während einige Stunden bei nur 50 °C für die quantitative Bildung von K2[A-H2] ausreichen.
Unter den Salzen M2[A] eignet sich Li2[68] mit borgebundenen Me-Substituenten besonders gut für den Einsatz als Hydrierungskatalysator. Mit Li2[68] konnten das Imin Ph(H)C=NtBu, das terminale Alken Ph2C=CH2 und Anthracen erfolgreich im NMR-Maßstab hydriert werden (Katalysatorladung 37 mol%, THF-d8, 1 atm H2-Initialdruck, 100 °C, 16 h). Im Reaktionsautoklaven war für die Hydrierung von Ph(H)C=NtBu eine Verringerung der Katalysatorladung auf 10 mol% Li2[68] möglich (THF, 7 atm H2-Initialdruck, 100 °C, 18 h). Konkurrenzreaktionen begründen Einschränkungen in Bezug auf die Substratpalette, da M2[68] (M+ = Li+, Na+) mit elektronenarmen ungesättigten Verbindungen, die C=C-, C≡C-, C=O- oder C=N-Bindungen enthalten, [4+2]-Cycloadditionsprodukte bilden können. Die Reversibilität dieser Reaktion entscheidet, ob Li2[68] als Katalysator fungiert oder irreversibel in den Strukturen gebunden bleibt.
Vielseitiger sind die H2-Aktivierungsprodukte M2[A-H2] als H–-Donoren geeignet: Na2[68-H2] ersetzt Halogenid- durch H–-Substituenten in Bromethan, sowie in Chlorsilanen und PCl3; CO2 wird in Natriumformiat überführt. Unabhängig von der Anzahl der Chlorliganden werden die Produkte immer vollständig hydriert. Eine erneute Reduktion von 68 kann wieder Na2[68] bereitstellen, das H2 aufnimmt und Na2[68-H2] regeneriert, welches für neue H–-Abgaben zur Verfügung steht. Bei der experimentellen Umsetzung des Kreislaufs ist es wichtig, die beschriebenen Reaktionsschritte nacheinander auszuführen und jeweils nur stöchiometrische Mengen des Elektrophils zuzugeben. Bei Abweichungen vom schrittweisen Syntheseprotokoll finden formale nukleophile Substitutionen mit M2[68] statt und monoanionische Spezies entstehen, z. B. wenn Et3SiBr als Elektrophil anwesend ist.
Gegenüber CO2 zeigt Li2[68] eine hohe Reaktivität, durch die selektiv CO und [CO3]2– gebildet werden. Wie zuvor bei den H–-Transferreaktionen ermöglicht die Reduktion der Neutralverbindung 68 die Regeneration von Li2[68].
Die Dianionen [A]2– stechen unter anderen cyclischen Borverbindungen in niedrigen Oxidationsstufen heraus, da mit [A]2– nicht nur die Aktivierung von H2 oder CO2 gelang, sondern erstmalig über die Einbindung der Additionsprodukte in zum Teil katalytische Folgereaktionen berichtet werden konnte.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
Medizin gehört auch nach über 40 Jahren zu den zulassungsbeschränkten Fächern; die
Zulassung nach Leistung (Abiturnote) und Wartezeit befriedigt dabei nicht vollständig.
Die Eignung alternativer Kriterien für die Studienzulassung wurde bisher kaum
untersucht; angesichts der je nach Bundesland und Leistungsfächern heterogenen
Abituranforderungen wurden bisher auch keine Medizin-spezifischen Kriterien für die
Eignung als Zulassungskriterium untersucht, weder als Teilleistungen des Abiturs noch
als extracurriculare Aktivitäten.
Die vorliegende Studie untersucht die Bedeutung naturwissenschaftlicher Vorkenntnisse
für das Medizinstudium. Hierzu wurden das aktive Wissen in den Fächern Biologie,
Chemie, Physik und Mathematik in einer schriftlichen Klausur mit 40 offenen Fragen
an 3030 Studenten überprüft, was etwa 40% der Studienanfänger des Semesters an 14
Universitäten in Deutschland entsprach. Die Klausur wurde jeweils in den ersten vier
Wochen ihres ersten vorklinischen Semesters im Wintersemester 2004/2005
geschrieben; das Schwierigkeitsniveau der Fragen entsprach dem Lehrstoff der
Klassenstufen 10 bis 12 des Gymnasiums.
Im Durchschnitt beantworteten die Studienanfänger dabei 14,34 der 40 Fragen richtig
(36%). Aufgeteilt in die vier naturwissenschaftlichen Fächer zeigte sich, dass in den
Fächern Biologie und Mathematik jeweils über 40% der Fragen richtig beantwortet
wurden, während der Anteil der richtigen Antworten in den Fächern Chemie und Physik
mit 22% beziehungsweise 19% deutlich niedriger lag.
Die Studienanfänger in der Bundesrepublik Deutschland zeigten erhebliche
Wissenslücken auf. Im Weiteren wird in der vorliegenden Studie der Zusammenhang
zwischen den naturwissenschaftlichen Abiturnoten und -fächern der Studenten, den
naturwissenschaftlichen Kenntnissen (gemäß Klausur) und dem Studienerfolg,
gemessen an den Physikumsnoten, untersucht.
Anzustreben wäre eine bessere Vorbereitung der Studienanwärter in grundlegenden
naturwissenschaftlichen Kenntnissen, entweder in den Gymnasien oder in den ersten
vorklinischen Semestern. Dies könnte durch Medizin-spezifische Aufnahmetests vor Studienbeginn oder durch zusätzlich angebotene, freiwillige oder verpflichtende Kurse
in den naturwissenschaftlichen Fächern erfolgen, um den späteren Studienerfolg zu
gewährleisten beziehungsweise zu verbessern.
In der vorliegenden Arbeit ist es gelungen, OTS-, MPTMS-, und MPTMS/OTS gemischte SAMs aus der Lösung auf SC-1 chemisch oxidierten Siliziumwafern („SiO2“) zu präparieren. Die Adsorption der OTS oder MPTMS SAMs auf SiO2 wird von zwei konkurrierenden Reaktionen bestimmt, d.h. „Selbstaggregation” in der Ausgangslösung und “Oberflächendehydration” des SiO2 -Substrates. Die beiden Alkylsiloxan-SAMs weisen unterschiedliches Bildungsverhalten auf. Die Reifungsdauer der Ausgangslösung vor der Adsorption wirkt sich signifikant auf die Bildung der OTS SAMs aus, demgegenüber ist bei MPTMS SAMs kein Einfluß zu beobachten. Für OTS SAMs sind große Dendriten oftmals von kleinen Rundinseln umgeben, dagegen für MPTMS SAMs treten prinzipiell nur sporadisch verteilte kleine Rundinseln auf. Die Abwesenheit des Chlor-Signals in XPS-Spektren bestätigt, dass innerhalb der Adsorption die Si-Cl Bindungen der OTS-Moleküle zum größten Teil hydrolysiert werden. Doch für MPTMS SAMs ist in C 1s-Spektren ein Peak bei 286.4 eV, der der unhydrolysierten Si-OCH3 Bindung entspricht, zu beobachten. Die Hydrolysefähigkeit der Si-Cl Bindung des OTS ist erwartungsgemäß stärker als jene der Si-OCH3 Bindung des MPTMS. Diese Tendenz samt dem Unterschied in der Alkylkettenlänge wirkt sich beträchtlich auf die Bildung und die Morphologie der adsorbierten Inseln aus. Bei gleicher Konzentration (5 mM) und Reifungsdauer der Ausgangslösung bilden sich OTS SAMs viel schneller als MPTMS SAMs bei Raumtemperatur. Sie hat auch eine größere Oberflächenbedeckung wegen der seitlichen Vernetzung zur Folge. Diese Beobachtung zeigt eine prognostizierbare kinetische Schwierigkeit zur Präparation der OTS/MPTMS gemischten SAMs durch Koadsorption. Grund hierfür ist, dass die Adsorption voraussichtlich von OTS-Molekülen dominiert wird. Darüber hinaus ist Aggregation zwischen hydrolysierten OTS- und MPTMS-Molekülen nicht ausgeschlossen. Neben der Koadsorption steht in der zweistufigen Adsorption ein weiteres herkömmliches Verfahren zur Verfügung. Das Endprodukt kann nach der Reaktionsreihe der Silane mit „OTS+MPTMS“ oder „MPTMS+OTS“ gemischte SAMs bezeichnet werden. Unter Berücksichtigung der individuellen Oberflächenbedeckung und Morphologie wurde eine Rezeptur aufgestellt, in der die Adsorption jeweils höchstens 30s (für OTS) und 20 min (für MPTMS) dauert. Angesichts der vielfältigen Inselstruktur, d.h. Monoschicht, polymerisierte Bälle, und sogar Multischicht, ist eine Phasenunterscheidung nach der Dicke, z.B. mittels AFM, nicht zu erwarten. Die Existenz der lateralen unvernetzten Si-OH Gruppen der adsorbierten OTS-Inseln könnte die Präparation der homogenen OTS+MPTMS gemischten SAMs erschweren. In diesem Fall ist es fraglich, ob die hydrolysierten MPTMS-Moleküle vollständig wie geplant mit oberflächnahen OH-Gruppen von SiO2 reagieren. Mit einer umgekehrten Reaktionsreihe löst sich das Problem von selbst, da die adsorbierten MPTMS-Inseln hauptsächlich unhydrolysierte seitliche Si-OCH3 Gruppen besitzen. Die morphologische Erkennbarkeit unterstützt die Machbarkeit der Präparation der MPTMS+OTS gemischten SAMs. Die unterschiedlichen Messmodi des AFM, mit denen die Morphologie der OTS SAMs aufgenommen wurde, ergaben deutliche Unterschiede in ihrem Erscheinungsbild. Im Vergleich zum Tappingmodus sind die Grenzen der OTS-Inseln auf Kontaktmodus-Bildern nur undeutlich erkennbar. Die großen Inseln erscheinen nicht so dendritisch. Die Ursache dieser Phänomene könnte am Wassermeniskus zwischen Spitze und Probe liegen, da die Messung nicht in Flüssigkeit, sondern an Luft durchgeführt wurde. Auf LFM-Bildern sind die adsorbierten OTS-Inseln heller als unbedecktes SiO2, während die MPTMS-Inseln dunkler als SiO2 aussehen. Eine ähnliche Auswirkung der Messmodi auf die Morphologie der MPTMS SAMs wurde nicht beobachtet. Durch die Adsorption von 1-Decanthiol lässt sich die Si3N4-AFM-Spitze modifizieren. Eine solche CH3-terminierte Spitze ist hydrophob und verursacht einen gegenteiligen Helligkeitskontrast auf LFM-Bildern der adsorbierten OTS-Inseln.
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Im Rahmen dieser Arbeit wurde die Vegetation der Savannenlandschaften der Sahelzone von Burkina Faso analysiert. Diese semiaride bis aride Region, die seit einigen Jahrzehnten von Landdegradation betroffen ist, ist als Untersuchungsgebiet u.a. deshalb besonders interessant, weil sie an einem Nutzungsübergang zwischen sesshafter Landwirtschaft und traditionell nomadischer Viehwirtschaft liegt. Im Vordergrund stand bei der Vegetationsanalyse ihre Klassifikation, die Frage nach der floristischen Struktur sowie dem aktuellen Zustand der Vegetation. Zu Beginn der Feldarbeiten wurde das Untersuchungsgebiet, das einen Niederschlagsgradienten von rund 200 mm umfasst, in geomorphologische Landschaftseinheiten (Inselberge, glacis, Niederungen, mares, Dünenzüge) stratifiziert. Innerhalb dieser Einheiten erfolgte die Vegetationsaufnahme mit Hilfe pflanzensoziologischer Aufnahmen. Die Arten der Gehölz- und Krautschicht wurden getrennt behandelt. Die Vegetationsaufnahmen wurden durch Strukturprofiltransekte in der brousse tigrée und Bodenuntersuchungen ergänzt. Auf verschiedenen Skalenebenen wurden die verschiedenen Vegetationsgesellschaften detailliert beschrieben und zu Standortfaktoren in Beziehung gesetzt. Außerdem wurden Vegetationsprofile zur Veranschaulichung der räumlichen Struktur der Vegetation abgeleitet. Bei der Analyse kamen auch computergestützte Methoden und statistische Verfahren (Tests der absichernden Statistik, Berechnung verschiedener Diversitätsindices, Ordinationsverfahren, numerische Klassifikation) zum Einsatz, um die Interpretation der Vegetationsstruktur zu unterstützen. Rund 320 Gefäßpflanzensippen aus 65 Familien konnten sicher bestimmt werden. Die artenreichste Familie sind die Poaceen. Insgesamt können 20 Gesellschaften der Gehölzschicht sowie 22 Gesellschaften der Krautschicht klassifiziert werden, die zur Mehrzahl weiter in Untereinheiten gegliedert sind. Innerhalb jeder Landschaftseinheit werden die Gesellschaften der Gehölzschicht, anschließend diejenigen der Krautschicht, vorgestellt. In der Regel sind sie in ihrer Verbreitung auf jeweils eine Landschaftseinheit beschränkt. Vor allem die Gesellschaften des glacis und der Niederungen besiedeln auch Habitate in Landschaftseinheiten außerhalb ihres Schwerpunktes. Daraus werden Schlüsse zum Ausbreitungsverhalten gezogen. In keinem Fall sind Einheiten der Krautschicht und der Gehölzschicht ausschließlich miteinander kombiniert; vielmehr sind Einheiten der Krautschicht jeweils mit mehreren Einheiten der Gehölzschicht kombiniert, was ihren selbständigen Charakter betont. Zehn Einheiten der Krautschicht sind überwiegend oder völlig gehölzfrei. Eine floristische Verwandtschaft besteht vor allem zwischen den Landschaftseinheiten glacis und Dünenzügen sowie zwischen mares, Niederungen und Dünenzügen; die Inselberge unterscheiden sich deutlich. Die Gehölzvegetation der Inselberge ist in Abhängigkeit von der menschlichen Nutzung in fünf Gesellschaften gegliedert. Während die Commiphora africana-Gesellschaft für wenig beeinflusste Bereiche typisch ist, hat die Combretum micranthum-Fragmentgesellschaft ihren Verbreitungsschwerpunkt in den intensiv genutzten Bereichen. Die Acacia raddiana-Zentralgesellschaft ist an den Unterhängen vertreten. Die Krautschicht der Inselberge gliedert sich in sechs, relativ artenreiche Gesellschaften mit Untereinheiten. Sie stellen zum Teil lokale Besonderheiten dar. Das räumliche Muster der Einheiten der Brachiaria lata-Gesellschaft lässt eine Abhängigkeit von der Art der Beweidung erkennen. Die Vegetation der Sandrampen wird oftmals von Einheiten gebildet, die ihren Verbreitungsschwerpunkt auf den Dünenzügen haben. Die Gehölzvegetation des glacis ist in drei relativ artenarme Gesellschaften gegliedert, die in Abhängigkeit der Lage zum lokalen Vorfluter zoniert und auch über das Untersuchungsgebiet hinaus weit verbreitet sind. Weite Bereiche des glacis sind völlig gehölzfrei. Die häufigste Gesellschaft ist die Acacia raddiana-Zentralgesellschaft. Die Ordination der Daten unterstützt die Klassifikation und zeigt Übergänge zwischen den Einheiten sowie Beziehungen zu den Standortparametern auf. Die Krautvegetation der glacis-Flächen ist relativ einheitlich; es gibt insgesamt nur zwei Gesellschaften. Der Anteil an Ruderalarten, Arten mit Pioniercharakter und solchen, die ihren Verbreitungsschwerpunkt auf Dünenzügen haben, ist relativ hoch. Bedeutendste Einheit ist die Tribulus terrestris-Untereinheit der Schoenefeldia gracilis-Gesellschaft, die eine weite ökologische Amplitude besitzt. Vor allem zu den Krautgesellschaften der Niederungen bestehen enge floristische und räumliche Beziehungen. Die krautigen Arten des glacis haben eine weite ökologische Amplitude. Es bestehen floristische Beziehungen zu Vegetationseinheiten der Sahara. Die Vegetation der mares und Niederungen hat die höchste β-Diversität. Die Gehölzvegetation der Niederungen ist in Abhängigkeit der Überflutungsdauer und -höhe zoniert und relativ struktur- und artenreich. In Galeriewäldern kommen sudanische Gehölzarten vor. Während von Viehherden stark frequentierte mares niedrige Gehölzdeckungen aufweisen oder komplett gehölzfrei sind, ist die Gehölzdeckung an den Ufern nur schwach besuchter mares geschlossen. Dies gilt auch für die artenreiche Krautvegetation. Insgesamt ist die Gehölzvegetation der Niederungen und mares in acht Gesellschaften gegliedert; die einzelnen Einheiten zeigen Übergänge miteinander. Die Krautvegetation der Niederungen enthält ebenfalls sudanische Arten. Sie lässt sich in drei Gesellschaften gliedern, die z.T. nur ein kleines Verbreitungsgebiet haben. Einige Uferabschnitte sind stark degradiert und vegetationslos. Die oftmals röhrichtartige Krautvegetation der mares ist ebenfalls in Abhängigkeit der Überflutungshöhe gegliedert, allerdings kommen an den einzelnen mares teilweise unterschiedliche Einheiten vor. Die Melochia corchorifolia-Gesellschaft steht im Mittelpunkt der Krautvegetation der mares, während die Brachiaria mutica-Gesellschaft für die nicht oder nur wenig überfluteten Bereiche typisch ist. Die Gehölzvegetation der Dünenzüge lässt sich im Untersuchungsgebiet in neun Gesellschaften gliedern. Diese gruppieren sich in einem artenreichen Block wenig beeinflusster Bereiche und in einem relativ artenarmen Block intensiv genutzter Dünenabschnitte. Bestände, die zur Pterocarpus lucens-Gesellschaft gestellt werden, bilden auf abgelegenen Dünenzügen kleine Wäldchen. In diese Gesellschaft werden auch die Bestände der brousse tigrée eingegliedert. Es sind in der Region nur noch wenige Flächen mit intakter brousse tigrée vorhanden. Anhand von zwei Strukturprofiltransekten wird ihre floristische und räumliche Struktur mit vier Zonen veranschaulicht. Pterocarpus lucens und Combretum micranthum sind die beiden dominanten Gehölzarten. Im Untersuchungsgebiet ist die Combretum glutinosum-Zentralgesellschaft weit verbreitet. Durch zwei Ordinationsdiagramme wird der ökologische Schwerpunkt wichtiger Dünenarten aufgezeigt. Die numerische Klassifikation lässt sich gut mit der manuellen Klassifikation in Übereinstimmung bringen. Die Krautvegetation der Dünen ist in sieben Gesellschaften mit vielen, z.T. relativ artenarmen Untereinheiten gegliedert, deren ökologische Bindung aufgrund eines starken, nivellierenden Beweidungseinflusses nicht immer geklärt werden kann. Es dominieren annuelle Arten; viele der Arten kommen in anderer Artenkombination auch in der Sudanzone vor. Daneben zeigt sich eine floristische Verwandtschaft zur Sahara. Unter Bäumen wächst die Achyranthes aspera-Gesellschaft. Krauteinheiten, die in anderen Landschaftseinheiten ihren Verbreitungsschwerpunkt haben, sind auf den Dünenzügen ebenfalls vorhanden, z.B. die Enteropogon prieurii-Gesellschaft der Inselberge und die Schoenefeldia gracilis-Gesellschaft des glacis. Es ist keine floristische Differenzierung entlang des Niederschlagsgradienten erkennbar. Hirsefelder sind mit Kulturbaumparks bestanden. Die Acacia raddiana-Zentralgesellschaft gewinnt auch auf den Dünenzügen an Bedeutung. Die Ergebnisse werden in Beziehung zu den in der Literatur vorhandenen, oftmals auf formationskundlichen Kriterien beruhenden Klassifikationen in Beziehung gesetzt. Je nach verwendetem Verfahren und Distanzmaß liefert die numerische Klassifikation unterschiedliche Ergebnisse, die sich nur zum Teil mit der Klassifikation in Deckung bringen lassen. Durch die Betrachtung der aktuellen Verjüngung, aus den Ergebnissen und ihrer Diskussion werden Aussagen über die aktuelle Vegetationsdynamik abgeleitet. Aktuelle Strukturveränderungen der Vegetation sind mit einem Landnutzungswandel verbunden. In erster Linie handelt es sich um Degradation, für die Beispiele auch aus der Literatur gegeben werden. Auf den Inselbergen gehen artenreiche Bestände zurück, gleichzeitig wandern Arten von den glacis-Flächen her ein. Auf dem glacis sind einerseits eine Artenverarmung, andererseits eine Verbuschung tiefliegender Bereiche sowie eine floristische Homogenisierung vieler Flächen zu beobachten, letzteres gilt auch für die Dünenzüge. An den mares und Niederungen findet ebenfalls eine floristische Verarmung statt, sudanische Arten sterben wie auch auf den Dünenzügen aus. Klimaungunst und vor allem Überbeweidung als mögliche Ursachen für den Vegetationswandel werden diskutiert.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Das Ziel dieser Arbeit war die Evaluierung der Einsatzmöglichkeiten eines mikrostrukturierten Reaktorsystems in der heterogenen Katalyse. Hierzu wurde eine Reaktion herangezogen, welche typische Problemstellungen der heterogenen Katalyse abbildet. Zu diesen Problemen gehören Temperaturkontrolle, sichere Handhabung von explosiven Gasgemischen und das Erzielen von zufriedenstellenden Selektivitäten. Die Reaktion sollte außerdem bereits gut untersucht worden und die Prozessparameter aus der Literatur bekannt sein. Aus diesem Grund wurde die Partialoxidation von Ethen zu Ethenoxid an Silberkatalysatoren gewählt. Es konnte gezeigt werden, dass die Reaktion in einem Mikrostrukturreaktorsystem sicher durchführbar ist. Vor allem wurde an einer ganzen Reihe von Beispielen veranschaulicht, dass eine herausragende Eigenschaft des Mikrostrukturreaktors seine inhärente Explosionssicherheit ist. Gasgemische, welche sich mitten im explosiven Gemischbereich befanden, konnten bei Drücken von 2 bis 20 bar und Temperaturen von 230 bis 310 °C sicher gehandhabt werden. So konnte gezeigt werden, dass der Mikrostrukturreaktor sich dazu eignet Reaktionen mit explosiven Gasgemischen durchzuführen. Die Verwendung von Mikrostrukturreaktoren in der heterogenen Katalyse befindet sich noch im Anfangsstadium. Um Probleme bei der Übertragung von Katalysatorsystemen auf ein System mit Mikrostruktur zu vermeiden, erfolgte zunächst der Einsatz von Vollsilberkatalysatoren. Die Mikrostruktur wurde deshalb aus dem katalytisch aktiven Material selbst hergestellt. Die Herstellung wurde auf drei unterschiedliche Weisen (LIGA-, Ätz- und Sägeverfahren) durchgeführt. So konnte gezeigt werden, dass eine Kostenreduzierung bei der Darstellung von Mikrostrukturen möglich ist. Der Nachteil der Nutzung von Vollsilber war, dass sich deutlich schlechtere Selektivitäten bei der Partialoxidation von Ethen ergaben. Es konnte jedoch gezeigt werden, dass mit dem Mikrostrukturreaktor die Selektivitäten für Vollsilber im Schnitt 10 % über denen für Rohrreaktorexperimenten bei gleichen Umsätzen lagen. Die effektive Wärmeabführung und die homogene Verteilung der Wärme über den Mikrostrukturreaktor scheinen eine Verbesserung der Selektivität zu erbringen. Kinetische Untersuchungen zeigten, dass sowohl durch Anheben des Partialdrucks von Ethen als auch von Sauerstoff eine Erhöhung der Reaktionsgeschwindigkeit erzielt werden kann. Dabei wurde für Ethen eine formale Reaktionsordnung bei der Bildung von Ethenoxid von 0,53 gefunden, während sie für Sauerstoff 0,78 betrug. Mit diesen Untersuchungen wurde verdeutlicht, dass ein Erhöhen des Sauerstoffpartialdrucks einen positiven Einfluss auf die Selektivität hat. So konnte durch Anheben der Sauerstoffkonzentration von 5 %, wie es in industriellen Prozessen aus Sicherheitsgründen notwendig ist, auf bis zu 95 % eine Verbesserung der Selektivität von bis zu 15 % erzielt werden. Über diesen Sachverhalt wurde zwar bereits in der Literatur (16) berichtet, jedoch erfolgten die Untersuchungen hierfür unter Hochvakuumbedingungen. Der Mikrostrukturreaktor ermöglichte einen Nachweis dieses Phänomens auch unter Hochdruckbedingungen, wie sie für industrielle Reaktoren üblich sind. Damit konnte ein in der heterogenen Katalyse bekanntes Problem, nämlich die Übertragung von Erkenntnissen aus Ultrahochvakuumexperimenten auf Hochdruckbedingungen (pressure-gap), untersucht werden. Eine wissenschaftliche Prüfung, ob dem Ergebnis die gleichen Ursachen sowohl im Ultrahochvakuum als auch bei Hochdruckbedingungen zugrunde liegen, muss noch erfolgen. Es zeigte sich aber auch, dass durch eine Verweilzeiterhöhung keine weitere Verbesserung der Raum-Zeit-Ausbeute möglich ist. Vielmehr wurde klar, dass Reaktionsgeschwindigkeit und Selektivität mit längeren Verweilzeiten abnehmen. Als Grund hierfür konnte die Bildung von elementarem Kohlenstoff an der Silberoberfläche festgestellt werden. Aufgrund der Limitierung bei der Verweilzeit wurden maximale Umsätze von 24 % erzielt. Der Einsatz von 1,2-Dichlorethan als Oxidationsinhibitor für Vollsilber wurde ebenfalls untersucht. Dabei konnte die Selektivität auf bis zu 69 % gesteigert werden. Es erfolgte jedoch eine Einbuße an Aktivität von etwa 42 %. Es ist bekannt, dass die Oberflächenmorphologie von Silberkatalysatoren unter Reaktionsbedingungen starke Veränderungen erfährt. (68) Es wurde aufgezeigt, dass dies für die Oberfläche von mikrostrukturierten Silberfolien ebenfalls festzustellen ist. Dabei wurde gleichzeitig festgestellt, dass die Katalysatoren trotz unterschiedlicher Herstellungsmethoden und den daraus resultierenden unterschiedlichen Oberflächenmorphologien vergleichbare Aktivitäten aufweisen. Industriell verwendete Katalysatoren basieren auf alpha-Aluminiumoxid als Trägermaterial. Dabei wurde bereits seit vielen Jahren an Optimierungen des Katalysators gearbeitet. Durch das Einstellen der spezifischen Oberfläche und Partikelgröße des Silbers und den Einsatz von Alkali- und Erdalkalimetallen als Promotoren werden so Katalysatoren hergestellt, welche eine Selektivität von 80 % besitzen. Die Übertragung dieser Erkenntnisse auf ein Mikrostrukturreaktorsystem kann nicht ohne weiteres vorgenommen werden. Es wurden verschiedene Darstellungsmöglichkeiten für eine alpha-Aluminiumoxidschicht in einem Mikrostrukturreaktor untersucht. Dabei zeigte sich, dass nur die direkte Darstellung von alpha- Aluminiumoxid ohne Phasenumwandlung aus anderen Modifikationen erfolgversprechend ist. Eine Darstellung der Aluminiumoxidschicht durch Sol-Gel- oder CVD-Prozesse war nicht erfolgreich, da die für die Phasenumwandlung von gamma-Aluminiumoxid nach alpha-Aluminiumoxid notwendige Temperatur von 1100 °C die Ausbildung einer Eisenoxidschicht an der Oberfläche der mikrostrukturierten Edelstahlfolien zur Folge hatte. Diese eignete sich nicht als Träger. Alternativ wurde erfolgreich der Einsatz von aluminiumhaltigen Edelstählen untersucht. Diese bilden beim Ausheizen bei 1100 °C eine alpha-Aluminiumoxidschicht an der Oberfläche aus, welche mittels Sputtern mit Silber geträgert wurde. Katalytische Untersuchungen zeigten, dass mit dem Einsatz von alpha-Aluminiumoxidträgern eine Verbesserung der Selektivität im Vergleich zu Vollsilber von 17 % erreicht werden kann. Gleichzeitig konnte anhand eines Gegenüberstellens von katalytischen Daten mit TEM-Aufnahmen der Sputterschichten festgestellt werden, dass eine geschlossene Silberschicht an der Oberfläche notwendig ist, um eine zufriedenstellende Aktivität und Selektivität zu erzielen. Während bei Schichtdicken von 1 nm noch einzelne Silberinseln an der Oberfläche zu finden sind, liegt bei einer Schichtdicke von 5 nm eine fast geschlossene Silberschicht vor. Ein Anheben der Schichtdicke ergab keine weitere Verbesserung der Aktivität oder Selektivität. Dagegen ergab der Einsatz von 1,2-Dichlorethan eine weitere Steigerung der Selektivität auf 77 %. Industriell eingesetzte Rohrbündelreaktoren erreichen im Sauerstoffverfahren eine Selektivität von 80 %. Die hier erzielten 77 % Selektivität bei vergleichbaren Umsätzen zeigt, dass der Einsatz eines Mikrostrukturreaktors für die Synthese von Ethenoxid möglich ist, vor allem unter dem Gesichtspunkt, dass Potenzial für die Optimierung von Reaktoren und die Katalysatorpräparation besteht. Die Nutzung von Reaktionsbedingungen, wie Ethen in reinem Sauerstoff, und der daraus resultierenden Verbesserung für Aktivität und Selektivität, ermöglichen Raum-Zeit-Ausbeuten, die über denen von Industriereaktoren liegen. Ob Mikrostrukturreaktoren in industriellen Prozessen jemals eingesetzt werden, hängt allein von ökonomischen Faktoren ab. Dazu müsste die Selektivität über die bestehenden 80 % angehoben werden. Zur Zeit entfallen 80 % der Produktionskosten von Ethenoxid auf den Rohstoff Ethen, so dass jeder Prozentpunkt, um den die Selektivität angehoben werden könnte, eine deutliche Kosteneinsparung mit sich brächte und darüber entschiede, ob ein neuer Prozess eingeführt wird. Hierzu wäre es auch notwendig, die Kosten für die Produktion der Mikrostrukturreaktoren pro Volumeneinheit um mehrere Größenordnungen zu reduzieren. Außerdem müssten Lösungen entwickelt werden, welche die Peripherie des Reaktors betreffen, vor allem die Heizung und die Gasversorgung. Im Rahmen dieser Arbeit sollte überprüft werden, welche Leistungsfähigkeit ein Mikrostrukturreaktorprozess im Vergleich zu einem bestehenden Prozess besitzt. Es konnte dargestellt werden, dass Raum-Zeit-Ausbeuten über denen eines Industriereaktors erzielt werden können bei vergleichbareren Selektivitäten. Außerdem konnte gezeigt werden, dass der Mikrostrukturreaktor ein geeignetes Werkzeug ist, welches helfen kann, Reaktionen unter bisher nicht einfach zugänglichen Bedingungen durchzuführen.
Fragen nach der Struktur von Sprachkompetenz sind aktuell in der pädagogisch-psychologischen Diagnostik von besonderer Bedeutung. Da sprachliche Kompetenzen als wesentlicher Bestandteil von Bildung angesehen werden, finden sie in empirischen Studien zu Schülerleistungen immer stärkere Beachtung. Neben der Feststellung von Ausprägungen der sprachlichen Kompetenzen wird die Differenzierbarkeit von Teilbereichen der Sprachkompetenz betrachtet, wenn spezifische sprachliche Phänomene getrennt beobachtet und beschrieben werden sollen. Die vorliegende Arbeit nähert sich der Frage nach der Struktur von Sprachkompetenz aus einer psychologisch-diagnostischen Perspektive. Auf der Grundlage von Daten einer deutschen Large-Scale-Studie und unter Bezug auf Theorien und Modellen der Psycholinguistik, der Entwicklungspsychologie und der psychologischen Diagnostik geht sie der Frage nach, welche Teilbereiche der Sprachkompetenz sich empirisch differenzieren lassen – wie sich also die Struktur von Sprachkompetenz aus Sicht der Diagnostik darstellen lässt. Darüber hinaus wird analysiert, ob sich spezifische Zusammenhänge zwischen einzelnen sprachlichen Teilbereichen empirisch auffinden lassen, die vor dem Hintergrund bekannter Theorien und Modelle der Struktur von Sprachkompetenz darzustellen und zu erklären sind. Schließlich wird untersucht, ob sich bestimmte Personengruppen hinsichtlich der strukturellen Zusammenhänge in ihrer Sprachkompetenz unterscheiden und inwiefern kognitive Grundfähigkeiten als Teil der Struktur von Sprachkompetenz zu betrachten sind. Bisher liegen nur wenige verallgemeinerbare, empirische Befunde zur Struktur der sprachlichen Kompetenzen deutscher Schülerinnen und Schüler vor. Dies ist vor allem darin begründet, dass die Durchführung vergleichender Studien über viele Jahrzehnte im deutschen Bildungssystem unüblich war und sich die Erfassung von Sprachkompetenz oft auf den Bereich der Defizitdiagnostik beschränkte. Dort, wo repräsentative Daten verfügbar sind, decken sie in der Regel nur einige wenige sprachliche Teilbereiche ab. Die vorliegende Arbeit beruht auf den Daten der umfassenden und differenzierten Erhebung von Sprachkompetenzen im Rahmen der Studie Deutsch Englisch Schülerleistungen International (DESI). DESI untersuchte im Schuljahr 2003/2004 die sprachlichen Leistungen von Schülerinnen und Schülern der neunten Jahrgangsstufe in Deutschland. Sie wurde von der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) im Jahre 2000 in Auftrag gegeben. Entsprechend der aktuellen Forschungslage zur Dimensionalität von erst- und fremdsprachlichen Kompetenzen wurden in den DESI-Tests jeweils mehrere produktive und rezeptive Kompetenzbereiche unterschieden: Sowohl im Deutschen als auch im Englischen wurden die Kompetenzen im Lesen und Schreiben erfasst, im Englischen zusätzlich im Hören und Sprechen. In beiden Sprachen wurden zudem sprachpragmatische und grammatikalische Aspekte der Sprachbewusstheit getestet, im Deutschen wurde darüber hinaus ein schriftlicher Test zur Argumentation eingesetzt. Lexikalische und orthographische Aspekte von Sprachkompetenz wurden im Deutschen in gesonderten Tests abgebildet und im Englischen als Komponenten von Lückentexten erfasst. Zusätzlich zu den insgesamt zwölf Testverfahren ergänzten Fragebögen zu Lehr-Lern-Bedingungen, Hintergrundfaktoren und motivationalen Aspekten sowohl für Schülerinnen und Schüler als auch für Lehrpersonen, Fachkollegien, Schulleitung und Eltern die Erhebung. An der Haupterhebung von DESI nahmen 10 632 Schülerinnen und Schüler aus 219 Schulen teil, darunter 40 Schulen mit bilingualem Sachfachunterricht. Diese Daten bieten eine ideale Grundlage für die Analyse der Struktur von Sprachkompetenz bei Schülerinnen und Schülern. Die Fragestellungen der vorliegen Arbeit beschäftigen sich damit, die Struktur von Sprachkompetenz innerhalb der beiden Sprachen zu beschreiben und in ein gemeinsames Modell zu integrieren. Methodisch berücksichtigt wird dabei die hierarchische Schachtelung der Daten. Dadurch wird ein theoriegeleitetes Modell der Struktur der Sprachkompetenz empirisch abgebildet. Darauf aufbauend wird analysiert, wie dieses Modell speziell auf die Mehrebenenstruktur der Daten anzupassen ist, ob also die Struktur von Sprachkompetenz auf Individualebene und auf Klassenebene für beide Sprachen getrennt und gemeinsam unter Beibehaltung des Modells für die Gesamtstichprobe dargestellt werden kann. In einem weiteren Schritt wird analysiert, ob das gefundene Modell der Struktur von Sprachkompetenz sich in spezifischen Untergruppen unterscheidet, hierzu gehören Mädchen und Jungen sowie Schülerinnen und Schüler mit unterschiedlichem Sprachhintergrund. Abschließend wird untersucht, welche Bedeutung den kognitiven Grundfähigkeiten im Gesamtmodell der Struktur von Sprachkompetenz zukommt.
Die Studie befasst sich mit Formenschatz, Sedimenten und Böden des Komadugu-Flusssystems. Neben einer grundsätzlichen Inventarisierung des bislang kaum erforschten Landschaftskomplexes lag der Schwerpunkt auf der Rekonstruktion von Systemveränderungen im Kontext des spätquartären Klimawandels. So sind die schmalen rezenten Auen teilweise in eine weitgespannte reliktische Überschwemmungsebene eingeschnitten, die möglicherweise synchron zu ehemaligen früh- bis mittelholozänen Tschadsee-Maxima bei Rückstau der Flüsse außerhalb der prominenten Bama-Beach-Ridge-Begrenzung entstand. Während die rezente Aue ein deutlich ausgeprägtes Mäandersystem aufweist, liegen in der Paläoschwemmebene komplexere fluviodeltaische Strukturen mit fließenden Übergängen der klassischen Gerinnebettmuster vor, deren häufige sprunghafte Verlagerung unter Ausräumung und Wiederverfüllung sich auch in der fluvialen Architektur des älteren Alluviums widerspiegelt. Bei Korngrößenanalysen ergab sich eine generelle Dominanz gut sortierter, feinsandiger Substrate. Darüber hinaus reflektieren die rezenten Alluvionen mit schluffigen Hochflut-, feinsandigen Uferbank- und mittel- bis grobsandigen Flussbettsedimentabfolgen sowie feinsandigen bis tonigen Gerinnefüllungen an Altarm-Standorten die fraktionierte Sedimentation in der modernen Aue. Demgegenüber sind die gradierten, feinsandigen Gerinnebett- und gerinnebettnahen Ablagerungen der Terrasse mit ihren äolisch überprägten Tops recht uniform ausgeprägt. Es zeichnen sich jedoch bestimmte Körnungsprovinzen ab, indem im Westen vor allem Feinstsande und Grobschluffe, in östlicher Richtung dann zunehmend sehr gut sortierte grobe Feinsande vertreten sind, wobei letztere aufgearbeitete lokale Dünensande repräsentieren. Der enge genetische Zusammenhang zeigt sich auch in Kornformen, Oberflächenbeschaffenheit und Schwermineralbestand der Sande, die von einer generellen Überlagerung der Transportmechanismen und polyzyklischen Aufarbeitung künden. Die Klimaxböden der östlichen Terrasse stellen offenbar luvic Arenosols/weakly leached ferruginous tropical soils dar, wenngleich aufgrund jüngerer Translokationsprozesse, ebenso wie im Westteil, lithomorphe Braunerden vorherrschen. Die Mehrzahl der durchgeführten OSL-Datierungen weist auf die Sedimentation des älteren Alluviums zur Wende des Pleistozäns zum Holozän hin. Sie markiert den geomorphologisch besonders aktiven Umbruch von ariden zu humiden Bedingungen, der im Einzugsgebiet des Komadugu spätestens gegen 12,5 ka erfolgte. Damit steht das fluviale Verhalten im ehemaligen Unterlaufbereich des Yobe-Systems in einem klaren Gegensatz zu einem für den trockenzeitlich-feuchtzeitlichen Übergang oftmals diagnostizierbaren morphodynamischen Wandel von instabilen zu stabilen Verhältnissen. Die zahlreichen wenig festgelegten Paläofließrinnen und feinsanddominierte Lithofazies als mutmaßliches Resultat einer durch Schichtfluten ausgelösten Dünenpediplanation künden von einem schwankendem, teilweise hoch energetischen Abflussverhalten, wie es am ehesten unter einem längerfristig wechselfeuchten Klimaregime vorgeherrscht haben könnte. Demgegenüber war die fluviale Formung zur Zeit der vollhumiden Maxima des Früh- und Mittelholozäns stark eingeschränkt, wobei es weder zu einer großflächigeren Sedimentation quasi-lagunaler Fazies noch zu kräftigeren Bodenbildungen kam. Die Einschneidung der rezenten Aue fand schließlich im Anschluss an das mittelholozäne Optimum bei Einsatz einer fortschreitenden Aridisierung statt.
In der vorliegenden Arbeit wurde die zelluläre Verteilung der beiden Ekto-Nukleotidasen TNAP (gewebeunspezifische Form der alkalischen Phosphatase) und NTPDase2 (Nukleosidtriphosphatdiphosphohydrolase) in den embryonalen, postnatalen und adulten neurogenen Zonen des Mäusehirns untersucht.
• Mittels enzym- und immunhistochemischer Markierungen wurde die TNAP erstmals auf den Zellen der SVZ (subventrikuläre Zone) und des RMS (rostraler Migrationsstrom) nachgewiesen.
• Immunhistochemische Doppelfärbungen von Gewebeschnitten und von akut isolierten Zellen aus der SVZ adulter und postnataler (P15) Mäuse zeigten, dass die TNAP von allen drei Typen neuronaler Vorläuferzellen (Typ B-, C- und A-Zellen) der SVZ exprimiert wird.
• Enzymatische Markierungen verschiedener Embryonal- und Postnatalstadien (ab Embryonalstadium14, E14) ergaben, dass die TNAP schon im Stadium E 14 im Bereich der Seitenventrikel exprimiert wird:
o In den frühen Embryonalstadien lag die TNAP über die gesamte Gewebedicke, von der ventrikulären bis zur pialen Oberfläche vor.
o Im Laufe der weiteren Entwicklung war eine im Kortex beginnende und sich später bis in das Striatum ausweitende Reduktion der TNAP-Aktivität zu beobachten. Mit zunehmender Reifung des Gehirns wurde die Schicht der TNAP-positiven Zellen dünner und beschränkte sich schließlich auf die SVZ.
• Die NTPDase2 war erst im Zeitraum zwischen E18 und P2 nachweisbar. Sie war im Bereich der Seitenventrikel lokalisiert und auf die an die Ventrikel angrenzenden Zellen beschränkt. Im Laufe der weiteren Entwicklung wandern die NTPDase2-positiven Zellen offensichtlich in die SVZ ein und ab P14 waren sie zu hüllartigen Strukturen angeordnet, die eine Doppelmarkierung für TNAP und NTPDase2 aufwiesen und Gruppen DCX-positiver Zellen (Typ-A Zellen, Neuroblasten) umschlossen.
• Die Markierung mit dem Neuroblastenmarker DCX war bereits zum Stadium E14 möglich. In diesem Altersstadium wurden lediglich die Zellen im Bereich des Kortex gefärbt. Im Laufe der postnatalen Entwicklung verlagerten sich die DCX-positiven Zellen ihren Schwerpunkt in den Bereich der SVZ. Bereits ab P10 lagen in der SVZ Gruppen von DCX/TNAP-doppelpositiven Zellen vor, Anzeichen für eine Konzentrierung der Neurogenese auf die SVZ.
• Die Ausschaltung des TNAP-Gens (TNAP-Knockout-Mäuse) hatte keinen offensichtlichen Einfluss auf die Ausbildung der Seitenventrikel oder die Ausbildung und zelluläre Zusammensetzung der SVZ.
• In der zweiten wesentlichen neurogenen Zone des Säugerhirns, dem Gyrus dentatus des Hippokampus, konnte die TNAP nicht nachgewiesen werden, obwohl die dortigen Vorläuferzellen NTPDase2 exprimieren.
Die vorliegenden Daten belegen erstmals eine Assoziation der TNAP mit neuronalen Vorläuferzellen und erlauben zusammen mit den Markierungen für NTPDase2 und weitere zelluläre Marker neue Einsichten in die zelluläre Entwicklung der adulten SVZ. Darüber hinaus stützen sie die Vorstellung einer Beteilung purinerger Signalwege an der Steuerung der embryonalen, postnatalen und adulten Neurogenese.
Zur Rolle der Typ-I-Interferone in der Abwehr von viralen Infektionen des zentralen Nervensystems
(2007)
Das zentrale Nervensystem (ZNS) bildet eine einzigartige Umgebung für Immunantworten, da Neuronen eine essentielle und in weiten Teilen nicht-erneuerbare Zellpopulation bilden. Virale Infektionen des ZNS und lokale anti-virale Immunantworten können zu dem Verlust von Neuronen und somit zu katastrophalen Erkrankungen führen. Unter normalen Bedingungen ist das ZNS weitgehend von der Kontrolle durch das Immunsystem ausgeschlossen. In diesem Zusammenhang wurde das ZNS oft auch als „immunprivilegiert“ bezeichnet. Dieses Konzept musste in den letzten Jahren revidiert werden, da es sich gezeigt hat, dass das ZNS nicht völlig vom Immungeschehen isoliert ist. Wichtige Mediatoren antiviraler Immunantworten sind die Typ I Interferone (IFN). Die verschiedenen Typ I IFN binden an einen gemeinsamen Rezeptor, den Typ I Interferon-rezeptor (IFNAR). Die Bedeutung von Typ I IFN Antworten für die Kontrolle viraler Infektionen wurde besonders eindrucksvoll mit IFNAR-defizienten Mäusen (IFNAR-/-) gezeigt. Nach Infektion mit dem neurotropen Vesikulären Stomatitis Virus (VSV) führt das Fehlen des IFNAR zu einer stark erhöhten Empfänglichkeit für tödlich verlaufende Infektionen. In allen Organen und besonders im ZNS von VSV infizierten IFNAR-/- Tieren fanden sich stark erhöhte Virusmengen. Um zu untersuchen, ob die VSV-Infektion des zentralen Nervensystems in IFNAR-/- Mäusen in erster Linie auf ein Versagen der peripheren Immunität oder des IFN Systems innerhalb des ZNS zurückzuführen ist, wurden mittels der Cre loxP Tech-nologie Mäuse hergestellt, die auf allen peripheren Zellen IFNAR exprimieren, während die Neuronen des ZNS IFNAR defizient sind (NesCre+/-IFNARflox/flox). Nach intranasaler VSV Infektion zeigten NesCre+/-IFNARflox/flox Mäuse zunächst keine Krankheitssymptome. Nach 5 bis 6 Tagen traten aber aufsteigende und halbseitige Lähmungen auf, so dass die infizierten Tiere verstärkt im Kreis liefen und schließlich verstarben. Im Vergleich dazu verstarben IFNAR-/- Mäuse bereits nach 2 bis 3 Tagen während normale C57BL/6 Tiere nach Infektion keine Symptome zeigten und überlebten. Der beobachtete Krankheitsverlauf lässt in den IFNAR-/- Mäuse auf ein Multiorganversagen als Todesursache schließen. 3 und 6 Tage nach Infektion konnte in den Organen von C57BL/6 Tieren kein Virus reisoliert werden. In den NesCre+/ IFNARflox/flox Tieren fanden sich zum Todeszeitpunkt nur im Gehirn Viruspar-tikel, während alle anderen Organe virusfrei waren. Die Virustiter im Hirn waren im Vergleich zu den IFNAR-/- Mäusen 10- bis 100-fach erhöht. In den anderen Organen und im Blut sind keine Viruspartikel nachweisbar. Dieser Befund deutete gemeinsam mit den beobachteten Krankheitsverläufen auf eine neuropathologische Symptomatik hin, bei der es wahrscheinlich zu einer VSV-Infektion des Hirnstammes kam. Die Analyse einzelner Regionen des ZNS zeigte in IFNAR-/- Tieren, dass 2 Tage nach Infektion in allen Regionen des ZNS signifikante Virusmengen zu finden waren. In den NesCre+/-IFNARflox/flox und den C57BL/6 Tieren fanden sich zu diesem Zeitpunkt nur im Riechhirn (Bulbus olfactorius) signifikante Virustiter. In den C57BL/6 Tieren blieb das Virus auf diese Region beschränkt und wurde dort innerhalb von 6 Tagen eliminiert. In den NesCre+/-IFNARflox/flox Tieren kam es in den folgenden Tagen jedoch zu einer fortschreitenden Infektion des ZNS, und auch das Großhirn, das Kleinhirn, der Hirn-stamm und das Rückenmark zeigten hohe Virustiter. In der Induktion peripherer Immunantworten unterschieden sich NesCre+/-IFNARflox/flox und C57BL/6 Mäuse nicht. In den WT Tieren kam es im Gegensatz zu den NesCre+/ IFNARflox/flox und IFNAR-/- Tieren innerhalb von 48 Stunden nach Infektion im Riechhirn zu einer Typ I IFN abhängigen Phosphorylierung von STAT-1, einer Komponente des IFNAR-Signaltransduktionsweges. Alles deutet darauf hin, dass die Induktion geringer Mengen Typ I IFN innerhalb des Riechhirns notwendig ist, um Im-munantworten zu aktivieren, die ein Übergreifen der Virusinfektion auf andere Regio-nen des ZNS verhindern. Eine funktionierende Immunität in der Peripherie und die Blut-Hirn-Schranke scheinen nicht ausreichend zu sein, um eine Infektion des ZNS mit VSV zu verhindern. Stattdessen muss es zur Aktivierung von IFN-abhängigen Mechanismen innerhalb des Riechhirns kommen, die ein Übergreifen der VSV Infektion auf andere Hirnregionen verhindert und zur Elimination von VSV im Riechhirn beiträgt.
Ziel der vorliegenden Arbeit war eine mehrdimensionale Analyse der Trainingsqualität von Leistungssportlern in ausdauerorientierten Sportarten aus Akteurssicht. Im Theorieteil wurden zunächst strukturelle Besonderheiten des Leistungssportsystems aus systemtheoretischer Perspektive kritisch analysiert, um einen gegenstandsadäquaten Qualitätsbegriff zu konzeptualisieren. Innerhalb dieses Theorieteiles wurden aktuelle - innerhalb von ausdauerorientierten Sportarten zumeist an der Trainingsquantität orientierte - Steuerungsmodalitäten, deren Ziele und Veränderungstendenzen aufgezeigt. Dies beinhaltetet die Darstellung gängiger kybernetischer Steuerprogramme sowie neuerer, synergetischer Ansätze bezüglich der Steuerungsmöglichkeiten sportlicher Leistungsentwicklungen. Zudem wurden handlungsleitende Rationalitäten herausgestellt, die von der sportlichen Organisation kommuniziert werden. Hierzu gehören Leitbilder, die sich in der sportlichen Förderstruktur in Form von Kaderstrukturen sowie Rahmentrainingsplänen zeigen. Neuere Studien, die solche Leitbilder und deren Effektivität empirisch überprüften, führen zu einer notwendigen Relativierung gängiger Steuerungsannahmen. Besonders betont wurde innerhalb der systemtheoretischen Ausführungen die vorherrschende dominierende Orientierung der am (Sport-)System Beteiligten an der systemspezifischen Codierung Sieg/Niederlage und die gegenwärtige Diskussion um die Rolle der Einflussnahme externer Interessen auf die Akteure (also auf die Athleten). Der Darstellung der strukturellen Aspekte im Leistungssportes folgte die Darstellung subjektorientierter Forschungsprojekte im Leistungssport. Insbesondere den Nachwuchsleistungssport betreffende Forschungsprojekte rückten hier ins Zentrum. Hierzu wurden solche Studien reflektiert, die die Lebenswelt der Athleten sowie deren Trainingsalltag untersuchten. Die Zielperspektive solcher Studien liegt im Interesse, mögliche Bildungspotentiale im Leistungssport zu explorieren. Die historisch gesehen kritische Haltung der Sportpädagogik gegenüber des Leistungssports zeigte sich bisher in der Ambivalenz der Zielorientierung leistungssportlichen Engagements, die sich aus struktureller Perspektive ausschließlich am Siegen bzw. der maximalen Leistung orientiert, aus pädagogischer Perspektive jedoch die Entfaltungsmöglichkeit des Subjektes vorsieht (insbesondere dessen Reflexionsfähigkeit sowie dessen Selbstbestimmtheit, also am Leitbild des „mündigen Athleten“ sensu LENK 1979). Diese sich zunächst konfligierend gegenüberstehenden Ansprüche begründeten die bisherige Abwehrhaltung der Sportpädagogik gegenüber dem Leistungssport. In der Analyse von Projekten, die sich mit der Entwicklung und Förderung sportlichen Talentes befassen, wurde eine weitere Facette deutlich, die in der vorliegenden Arbeit ins Zentrum gerückt wird: „Pädagogische“ Zieldimensionen wie Reflexionsfähigkeit sowie Selbstbestimmtheit des eigenen Tuns avancieren auch in leistungssportlichen Zusammenhängen als wichtige, talentbewahrende Komponente (PROHL 1996, Kapitel 2.3.1). Diese Einordnung pädagogischer Zieldimensionen ist Ausgangspunkt des hier verwendeten mehrdimensionalen Qualitätsverständnisses leistungssportlichen Trainings, welches zum einen die Ermächtigung (Empowerment) und zum anderen die Weiterentwicklung (Enhancing) der Agierenden im Prozess (im Training) vorsieht. Der in dem hier konzeptualisierten Qualitätsmodell individuelle, auf Transformation (Kapitel 2.3.3.2) abzielende Zugang zum leistungssportlichen Training, basiert nicht auf angenommenen Interventionsprogrammatik einer linearen Förderstrategie. Neben dem pädagogische Zugang weist Training dienstleistungstypische Kriterien auf wie das „uno-actu-Prinzip“ (Konsumption und Produktion fallen zeitlich zusammen) sowie die Wichtigkeit der instrumentellen Qualität (Zielerreichung) und einer subjektiven Qualität (Kundenzufriedenheit). Diese wichtigen Qualitätskriterien wurden in einer triangulativen Studie in Form eines quasi längsschnittlichen Unersuchungsdesigns analysiert. Zentrale Fragestellungen betrafen den Forschungsdefiziten entsprechend die Rolle der subjektiven Qualität (Athletenzufriedenheit) und deren Zusammenhang mit der sportlichen Leistung sowie die Rolle der o.g. pädagogischen Qualitätskriterien (Empowerment und Enhancing). Dabei sollen solche Rationalitäten, die per se bei den Athleten vorliegen und die auf den oben genannten (institutionalistischen, systemspezifischen) Annahmen beruhen, durch faktische Praktiken und deren nutzbringende bzw. hemmende Folgen für das Subjekt exploriert werden. Die Stichprobe setzte sich aus 20 Bundeskaderathleten zusammen, die ausdauerorientierte Sportarten (Triathlon, Radrennsport, Speedskaten) betreiben. Die oben beschriebenen Qualitätsdimensionen wurden zum einen durch einen Fragebogen (AZL, FESSLER 1992) erhoben, zum anderen wurden problemzentrierte Interviews mit den Athleten durchgeführt. Die im Forschungsstand aufgeführten Aspekte konnten im quantitativen Fragenblock (Fragenblock A und B, vgl. Kapitel 2.4.2) zu entsprechenden Arbeitshypothesen verdichtet werden, die explorativen, qualitativ untersuchten Fragestellungen (Fragenblock C) erhielten keinen hypothesenprüfenden Charakter. Innerhalb dieses Abschnittes wurde die Stichprobe der Kaderathleten sowie relevante statistische sowie insbesondere die qualitativen Daten betreffende Auswertungsmodalitäten dargestellt. Die nachfolgenden Ergebnisse sind hervorzuheben und erheben keinen Anspruch auf Repräsentativität: • Die Daten der Fragebogenerhebung zeigen eine hohe Athletenzufriedenheit an. Dies beinhaltet die Zufriedenheit mit dem Trainer, dem Training, den Trainingsbedingungen, der Trainingsgruppe und Wettkampfleistung. Diese hohe Zufriedenheitsstruktur ließ sich in den Interviews nicht wiederfinden. Die Ergebnisse zeigen, dass durch Fragebögen nur ein Ausschnitt erfasst werden konnte, ein für die Praxis relevanter Mehrwert entstand allerdings nur durch eine mehrperspektivische und individuelle Betrachtung (Interview) der Akteure. • In Bezug auf das Qualitätskriterium Empowerment ist zu resümieren, dass sich in der vorliegenden Studie viele Athleten „selbst“ ermächtigt haben, eine Förderung (bspw. durch Trainer) der Selbstbestimmung und der Selbstreflexion liegt in äußerst wenigen Fällen vor. • Die Mitbestimmung im Trainingsprozess sowie die Selbstbestimmung im Leistungssport werden aus Athletensicht vom Sportsystem kritisch wahrgenommen und restriktiv gehandhabt. • Viele Athleten betrieben vor ihrer derzeitigen Hauptsportart eine weitere Sportart. • In Bezug auf das Qualitätskriterium Enhancing (Weiterentwicklung) lässt sich zusammenfassen, dass die Karriereverläufe sehr heterogen sind. Eine „klassische“ Kaderkarriere (vom D- zum A-Kader) weisen nur sehr wenige Athleten auf. • In Bezug auf die instrumentelle Qualität von Training seien folgende Erkenntnisse aufgeführt: Zwar zeigte die Analyse der instrumentellen Qualitätsdimension, dass die Athleten ihre langfristige Entwicklung positiv belegen („habe meine Leistungsziele in den letzten Jahren erreicht“, vgl. Analyse in Kapitel 4.4.1). Bezogen auf die letzte Saison bewerten die Athleten ihre Leistungszielerreichung ausgewogen zustimmend und ablehnend (Kapitel 4.4.1). Die Bezeichnung „instrumentell“ trägt dem Inhalt des angenommenen „Outputs“ von Training jedoch nicht Rechnung, da „instrumentell“ im klassischen dienstleistungsorientierten Verständnis den unmittelbaren, also kurzfristigen „Output“ beschreibt. Deswegen sollte „instrumentell“ adäquat in die (pädagogische) Bezeichnung „Enhancing“ modifiziert werden. Enhancing fasst die langfristige Entwicklung als Qualitätskriterium individueller und prozessbezogener. • Bzgl. der Einordnung der Trainingsquantität in Ausdauersportarten ist folgendes Ergebnis von Relevanz: Die Daten geben keinen Hinweis darauf, dass dann, wenn mehr trainiert wird, auch die Leistungsziele oder Platzierungen eher erreicht wurden. Diese Arbeit konnte zeigen, dass die Sportpädagogik durch eine qualitative Betrachtung von leistungssportlichem Tun ihren Platz im Sinne der Praxisverantwortung und durch die Formulierung der Gegenstandspflicht (indem im Forschungsprozess auch hinterfragt wird, was Qualität überhaupt bedeutet, vgl. PROHL 2006a, 219) einnehmen kann - insbesondere dadurch, dass es den mündigen Athleten in einer pluralistischen Gesellschaft offen steht, sich leistungssportlich zu engagieren und gleichzeitig leistungssportliches Engagement als etwas begriffen wird, das Bildungspotential in sich birgt, allerdings ausschließlich unter den hier genannten Voraussetzungen der Mündigkeit.