Refine
Year of publication
Document Type
- Doctoral Thesis (5585) (remove)
Language
- German (3549)
- English (2007)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5585)
Is part of the Bibliography
- no (5585)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Nanopartikel (9)
- Proteomics (9)
Institute
- Medizin (1465)
- Biowissenschaften (813)
- Biochemie und Chemie (723)
- Physik (581)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (285)
- Geowissenschaften (138)
- Neuere Philologien (113)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
In April and May 2012 data on Au+Au collisions at beam energies of Ekin = 1.23A GeV were recorded with the High Acceptance Di-Electron Spectrometer, which is located at the GSI Helmholtz Center for Heavy Ion Research in Darmstadt, Germany. At this beam energy all hadrons containing strangeness are produced below their elementary production threshold. The required energy is not available in binary NN collisions but must be provided by the system e.g. through multi-particle interactions or medium effects like a modified in-medium potential (e.g. KN/ΛN potential). Thus, a high sensitivity to these medium effects is expected in the investigated system.
The baryon-dominated systems created in relativistic heavy-ion collisions (HIC) at SIS18 energies reach densities of about 2-3 times ground state density p0 and may be similar to the properties of matter expected in the inner core of neutron stars. It is in particular the behavior of hadrons containing strangeness, i.e. kaons and hyperons, and their potentials in the dense medium which may have severe implications on astrophysical objects and processes. As ab-initio calculations of quantum chromodynamics (QCD) cannot be performed rigorously on the lattice at finite baryo-chemical potentials due to the fermion sign problem, effective descriptions have to be used in order to model properties of dense systems and the involved particles. The only way to access the in-medium potential of strange hadrons above nuclear ground state density p0 is by comparing data from relativistic HIC to such effective microscopic models. Up to now, not much data on neutral kaons and Λ hyperons are available from heavy collision systems close to their NN production threshold. These two electromagnetically uncharged strange hadrons are in particular well suited to study their potential in a dense nucleon-dominated environment as their kinematic spectra are not affected by Coulomb interactions.
Hintergrund: Die Interaktion zwischen β-HCG und TSH in der Schwangerschaft stellt ein differentialdiagnostisches Problem dar, weil die Wertung von supprimierten TSH-Spiegeln erschwert wird. Dies kann im schlimmsten Fall zu Fehlinterpretationen führen. Ziel der vorliegenden Arbeit war, diese Interaktion an einem großen Kollektiv in einen zeitlichen Kontext mit dem Verlauf der Schwangerschaft zu bringen, da der Zeitpunkt des Screenings entscheidenden Einfluss auf die Höhe des TSH-Spiegels hat. Zusätzlich wurden anhand der vorliegenden Daten Referenzbereiche für Schwangere berechnet und der Einfluss einer Jodmedikation untersucht.
Patienten und Methoden: Aus einem unselektionierten Pool von Patientinnen eines nuklearmedizinischen Praxisverbundes wurden die Daten von 1283 schilddrüsengesunden Schwangeren zwischen 16 und 48 Jahren ausgewertet. Neben der TSH-Bestimmung lag ein Schwerpunkt auf dem zeitlichen Verlauf, so dass die Schwangeren in Untergruppen von je 2 Wochen analysiert wurden. Untersucht wurde der Einfluss der Jodmedikation auf die TSH-Werte. Am Ende erfolgte mit Hilfe der logarithmischen Transformation unter Verwendung der 2-Sigma-Grenzen die Bestimmung neuer TSH-Referenzbereiche für Schwangere.
Ergebnisse: Es zeigt sich zu Beginn der Schwangerschaft ein Anstieg der mittleren TSH-Werte von 1,22 mU/l in der 2. SSW bis auf 1,7 mU/l um die 7. SSW mit einem konsekutiven Abfall der TSH-Werte bis auf 0,9 mU/l bis zur 16. SSW (entsprechend 52,9%). Der größte Abfall findet sich in der 12. bis 14. SSW, also zum Zeitpunkt des ersten Screenings. Die Jodmedikation hat keinen maßgeblichen Einfluss auf den TSH-Wert. Die Berechnung schwangerschaftskorrigierter Referenzbereiche zeigt im ersten Drittel TSH-Werte von 0,08 – 3,67 mU/l, im 2. Drittel 0,04 – 2,88 mU/l und im 3. Trimenon 0,17 – 3,19 mU/l.
Schlussfolgerungen: Die Arbeit zeigt, dass die niedrigsten TSH-Werte zum Zeitpunkt des ersten Screenings zu erwarten sind und deswegen möglicherweise zu Fehlentscheidungen führen können. Ein relevanter Zusammenhang der Jodmedikation mit dem TSH-Wert lässt sich nicht nachweisen. Neue Referenzbereiche für Schwangere könnten hilfreich sein, dieses diagnostische Dilemma zu vermeiden.
Im ersten Teil dieser Arbeit wurde der Einfluss des HIV-Protease-Inhibitors Saquinavir und seines Derivates Saquinavir-NO auf die ABC-Transporter vermittelte Chemoresistenz in Tumorzellen untersucht. Saquinavir-NO zeigte in drei verschiedenen Tumorentitäten stärkere zytotoxische Wirkung als Saquinavir. Weder die Expression der ABC-Transporter MDR1 oder BCRP1 noch der zelluläre p53-Status hatten einen Einfluss auf die Zellsensitivität. MDR1-exprimierende chemoresistente Tumorzellen wurden durch Saquinavir-NO stärker gegen ausgewählte Zytostatika resensitiviert als durch Saquinavir. An chemosensitiven MDR1-negativen Zellen wurden keine Effekte beobachtet. Des Weiteren wurde die Neuroblastomzelllinie UKF-NB-3 mit Hilfe lentiviraler Vektoren mit cDNA für MDR1 transduziert. In diesem MDR1-transduzierten Zellmodell wurde die Sensiti-vität gegen das MDR1-Substrat Vincristin durch Saquinavir-NO stärker erhöht als durch Saquinavir. Am Durchflusszytometer wurde der Einfluss von Saquinavir und Saquinavir-NO auf die intrazelluläre Akkumulation des fluoreszierenden MDR1-Substrates Rhodamin 123 untersucht. In MDR1-exprimierenden Zelllinien führte Saquinavir-NO zu einer deutlich stärkeren Akkumulation von Rhodamin 123 als Saquinavir. In MDR1-negativen Zellen wurden keine Effekte beobachtet. Mit Hilfe des MDR1-ATPase-Assays und Wash-Out-Kinetiken am Durchflusszytometer wurde die Frage geklärt, ob Saquinavir und Saquinavir-NO als Substrate oder als allosterische Inhibitoren für MDR1 fungieren. Die Ergebnisse beider Assays lassen den Schluss zu, dass sowohl Saquinavir als auch Saquinavir-NO jeweils ein Substrat für MDR1 darstellen. Um den Einfluss von Saquinavir und Saquinavir-NO auf den ABC-Transporter BCRP1 zu untersuchen, wurde die Neuroblastomzelllinie UKF-NB-3 mit Hilfe lentiviraler Vektoren mit cDNA für BCRP1 transduziert. Die BCRP1-transduzierten Zellen wurden durch Saquinavir und Saquinavir-NO in vergleichbarem Ausmaß zu dem BCRP1-Substrat Mitoxantron sensibilisiert. Saquinavir-NO ist somit im Vergleich zu Saquinavir der deutlich potentere MDR1-Inhibitor, während beide Substanzen gleichermaßen BCRP1 beeinflussten. Im zweiten Teil dieser Arbeit wurde der Einfluss des MDM2-Inhibitors Nutlin-3 auf die ABC-Transporter-vermittelte Chemoresistenz in Tumorzellen untersucht. Nutlin-3 zeigte aufgrund seiner Funktion als MDM2-Inhibitor an Zellen mit Wildtyp-p53 stark zytotoxische Effekte. An Zellen mit einer p53-Mutation oder an Zellen, die p53-negativ sind, waren diese Effekte nicht zu beobachten. Die Behandlung mit Nutlin-3 führte in p53-Wildtypzellen zur Induktion diverser p53-Zielgene (p21, MDM2, GADD). In Zellen mit mutiertem p53 blieb diese Induktion nach Nutlin-3-Behandlung aus. Chemoresistente MDR1-exprimierende Tumorzellen wurden durch Nutlin-3 stark gegen ausgesuchte Zytostatika resensitiviert. Des Weiteren wurde die chemosensitive, p53-mutierte (Nutlin-3-insensitive) und MDR1-negative Rhabdomyosarkomzelllinie RH30 mit Hilfe lentiviraler Vektoren mit cDNA für MDR1 transduziert. In diesem MDR1-transduzierten Zellmodell wurde die Sensitivität gegen das MDR1-Substrat Vincristin durch Nutlin-3 stark erhöht. Am Durchflusszytomter zeigte sich in MDR1-exprimierenden Zellen durch Behandlung mit Nutlin-3 eine signifikant erhöhte intrazelluläre Akkumulation des fluoreszierenden MDR1-Substrates Rhodamin 123. In MDR1-negativen Zellen wurde dieser Effekt nicht beobachtet. Mit Hilfe des ATPase-Assays und Wash-Out-Kinetiken am Durchflusszytometer wurde die Frage geklärt, ob Nutlin-3 als Substrat oder als allosterischer Inhibitor für MDR1 fungiert. Die Ergebnisse beider Assays lassen den Schluss zu, dass Nutlin-3 ein Substrat für MDR1 darstellt. Nutlin-3 ist ein Racemat und wurde in allen Versuchen als solches verwendet. Das Enantiomer Nutlin-3a hemmt die MDM2-p53-Interaktion als aktives Enantiomer ca. 150-fach stärker als Nutlin-3b. Im letzten Schritt der vorliegenden Arbeit wurde Nutlin-3 in seine Enantiomere Nutlin-3a und Nutlin-3b aufgetrennt und beide Enantiomere wurden im Hinblick auf ihre Wirkung auf MDR1 untersucht. Dabei wurden keine Unterschiede zwischen den beiden Enantiomeren festgestellt. Nutlin-3a und Nutlin-3b interferieren demnach zu gleichen Teilen mit MDR1. Um den Einfluss von Nutlin-3 auf den ABC-Transporter MRP1 zu untersuchen, wurde mit zwei verschiedenen Zellmodellen gearbeitet. In beiden Zellmodellen zeigte sich, dass Nutlin-3 auch den MRP1-vermittelten Efflux der fluoreszierenden Substrate Rhodamin 123 und Calcein-AM inhibiert. Der Befund, dass Nutlin-3 mit der MDR1- und MRP1 vermittelten Chemoresistenz interferiert, ist neu und eine wichtige Information für die Bewertung der beginnenden klinischen Studien zur Untersuchung von Nutlin-3 als antitumorale Substanz.
Gegenstand der vorliegenden Arbeit war es die Hypothese, dass die chronische Rhinosinusitis auf eine immunologische Reaktion auf eingeatmete Pilzelemente zurückgehe, zu prüfen. An der Untersuchung nahmen 26 Patienten (medianes Alter: 47,1) und 6 Kontrollprobanden ohne nasale Entzündung (medianes Alter: 25) teil. Durch serologische Untersuchungen haben wir die CRS-Patienten in 35% Allergiker ohne und 19% mit Eosinophilie sowie 19% nicht-Allergiker ohne und 27% mit Eosinophilie mit eingeteilt. Mit einer verfeinerten Technik gelang es uns Pilze in nur 12% bei CRS-Patienten und in 17% bei der Kontrollgruppe mikrobiologisch nachzuweisen. Des Weiteren haben wir Pilzfragmente in 35% bei CRS-Patienten im Nasen-sekretausstrich gefunden, hingegen in keinem Fall in der Kontrollgruppe. Verteilt auf die CRS-Gruppen ergab sich folgendes Bild, wobei Kulturen und Ausstriche zusammen gezählt wurden: Bei 20% der Allergiker mit und bei 44% ohne Eosinophilie wurden Pilze im Nasenschleim nachgewiesen. In der Gruppe der nicht-Allergiker mit Eosinophilie konnten in 29% der Fälle Pilze gefunden werden. Bei 14% der Fälle wurden Pilze mit Allergic Mucin im Nasenschleim identifiziert. Nicht-Allergiker ohne Eosinophile wiesen in 20% der Fälle Pilze im Nasensekret auf. Folglich konnten wir nicht feststellen, dass bei nahezu jeder Untersuchungsperson Pilze im Nasenschleim sich nachweisen ließen. Bei den CRS-Patienten hatten 4% die Kriterien des EFRS-Krankheitsbildes erfüllt. Betrachtet man die Gruppe der nicht-Allergiker isoliert, so waren es dann 14%. Durch immunologische Serumuntersuchungen konnte ein signifikanter Unterschied (p  0,01) bezüglich der Gesamt-IgE-Werte zwischen der Kontroll- und der CRS-Patientengruppe festgestellt werden, allerdings ohne die übrigen zytologischen und histologischen Kriterien der AFS zu erfüllen. Der Gesamt-IgE-Wert bzw. Gesamt-IgE-Titer war ein hilfreicher Parameter zur Abgrenzung einer allergischen Komponente bei bestehender chronischer Rhinosinusitis, besaß aber keine Aussagfähigkeit über vorliegen einer AFS. Zudem wurde auch der pilzspezifische-IgE-Spiegel gemessen. Insgesamt resultierte bei 12% der CRS-Patienten ein positiver Nachweis von zirkulierenden pilzspezifischen IgEs im Serum. Ein Zusammenhang zwischen pilzspezifischen IgE und Eosinophilie mit Clusterbildung und Pilznachweis konnte in keinem Fall beobachtet werden. Mit Hilfe des biochemischen Entzündungsmarker ECP bestimmten wir die eosinophile Entzündungsaktivität im Nasensekret und im Serum. Die ECP-Konzentration im Nasensekret zeigte einen signifikanten Unterschied (p = 0,02) zwischen CRS- und der Kontrollgruppe auf, hingegen im Serum war der Unterschied geringfügig (p = 0,11). Für das Monitoring von Entzündungs-geschehen im Nasenschleim sind Analysen des Nasensekrets daher gegenüber Blutanalysen zu bevorzugen. Die ECP-Nasensekretwerte der CRS-Patienten ohne Nachweis von Pilzelementen im Ausstrich waren insgesamt ähnlich hoch verteilt wie die der mit Nachweis von Pilzelementen im Ausstrich. Somit bestand kein statistisch signifikanter Unterschied zwischen den ECP-Werten mit und ohne Pilznachweis im Nasensekret-ausstrich (p = 0,87). Das ECP im Nasensekret erscheint zum Screening der pilzassoziierten chronischen Rhinosinusitis ungeeignet. Die These, dass Pilze das ätiologische Agens der Polyposis nasi et sinuum oder gar der chronischen Sinusitis allgemein sind, ist weiterhin sehr kritisch zu werten. Da Pilze über potente Antigene verfügen, kann eine Verstärkung eines bereits bestehenden Entzündungsreizes nicht sicher ausgeschlossen werden. Die Ergebnisse dieser Arbeit weisen darauf hin, dass es möglich ist durch einfache pathomorphologische Verfahren eindeutige Informationen zum Vorkommen von Pilzen und eosinophile Zellen bereits im Ausstrich-Präparat zu erhalten. Bei Problemfällen kann der Hinweis auf ein positiven Pilzbefund in der Histologie wertvoll sein, da differentialdiagnostisch ein zusätzlicher potenzierender Entzündungsfaktor zu berücksichtigen ist. Es liegt dann an der Erfahrung des HNO-Arztes und dem klinischen Verlauf welche therapeutischen Optionen dann nützlich sind. Unklar bleibt weiterhin bis dato was das erste Signal bei der eosinophilen Entzündungsreaktion darstellt. Nach unseren Untersuchungen scheinen Pilze nicht primär in Frage zu kommen.
Ziel dieser Arbeit war es, zu prüfen, in welcher Art und Weise Kinder mentale Repräsentationen beim Lesen von Texten konstruieren. Ausgangspunkt der Konzeption dieser Arbeit war das Konstruktions-Integrations-Modell von Kintsch, das zu den am meisten rezipierten Textverstehensmodellen zählt. Ein zentraler Aspekt dieses Modells ist die Annahme der simultanen Speicherung von Textmaterial auf drei hierarchisch voneinander verschiedenen Ebenen mentaler Repräsentation. Genauer sind dies eine Oberflächenrepräsentation, in welcher der genaue Wortlaut und die exakte Struktur eines Textes abgebildet wird, eine propositionale Repräsentation, welche die im Text enthaltene Bedeutung wiedergibt, und schließlich die tiefste Art der Verarbeitung, das Situationsmodell. Hier wird die Textinformation mit relevantem Weltwissen verknüpft wird. Trotz der großen Akzeptanz des Modells und seiner Bedeutung im Bereich auch schulischer Textverstehensforschung, liegen Aussagen zu differentiellen Effekten nur in sehr begrenztem Umfang vor. Erste Hinweise auf entwicklungsabhängige Unterschiede, wie auch Unterschiede in Abhängigkeit von Eigenschaften der Person oder des Textes selbst liegen vor, bedürfen aber einer Erweiterung und erneuter Prüfung um zu einem stabilen und kohärenten Bild interindividueller Unterschiede zu gelangen. Die vorliegende Arbeit untersuchte drei Fragestellungen. Die erste Fragestellung bezog sich auf eine entwicklungsabhängige Veränderung in der relativen Nutzung der einzelnen Ebenen. Die zweite Fragestellung umfasste angenommene Effekte eines Zeitverlaufs auf die Stärke der Repräsentationen sowie die Möglichkeit einer Beeinflussung dieser Veränderungen durch den Einsatz einer behaltensfördernden Instruktion. Die dritte Fragestellung bezog sich auf den Effekt einer Auswahl personenbezogener Variablen auf die Ausprägung der Repräsentationsebenen. Insgesamt wurden die Fragestellungen mit zwei unterschiedlichen Textsorten, einem narrativen Text und einem Sachtext geprüft, um Unterschiede aufzudecken, die sich aus der Verarbeitung unterschiedlicher Textgenres ergeben. Die Fragestellungen wurden in einer Hauptuntersuchung geprüft. Zwei Vorstudien (Vorstudie 1: N = 56; Vorstudie 2: N = 133) dienten der Materialentwicklung und Erprobung erster Zusammenhänge. An der Hauptstudie nahmen 418 Schüler dritter, vierter und fünfter Jahrgangsstufen teil. Die Ergebnisse zeigten insgesamt eine Präferenz der situativen Repräsentation mit nur geringen altersabhängige Veränderungen. Auf eine Oberflächenrepräsentation ließ sich aufgrund der Ergebnisse nur bei einer Teilstichprobe der Viertklässler schließen. Insgesamt fiel es den Schülern erwartungsgemäß leichter, ein Situationsmodell für den narrativen Text im Vergleich zum Sachtext aufzubauen. Dieser Vorteil blieb auch über Zeitintervalle von 20 Minuten bzw. drei Tagen stabil, während sich eine erwartete Veränderung innerhalb der Ebenen nicht abbildete. Von erneutem Lesen konnten die Kinder kurzfristig für den Aufbau aller Ebenen beim Bearbeiten des Sachtextes profitieren. Als ein Prädiktor, der die Ausprägung der situationalen Ebene neben der Textsorte vorhersagen konnte, war der Wortschatz der Kinder. Allgemeine Leseverständiskompetenz zeigte positive Zusammenhänge zur propositionalen Verarbeitungsebene.
Überprüfung der psychometrischen Parameter von CBCL 1 1/2-5 und C-TRF an einer deutschen Stichprobe
(2003)
Der Elternfragebogen (CBCL 11/2-5) und der Erzieherfragebogen (C-TRF) über das Verhalten von Klein- und Vorschulkindern sind die ersten deutschen Fassungen der von Achenbach 1997 modifizierten CBCL/2-3 (Achenbach, 1992), die von der Arbeitsgruppe Deutsche Child Behavior Checklist 1993 bereits übersetzt wurde. Beide Verfahren dienen der Erfassung von psychischen und emotionalen Auffälligkeiten von Klein- und Vorschulkindern im Alter von 11/ 2 bis 5 Jahren. Das Anliegen der vorliegenden Arbeit besteht zum einen in der Überprüfung der psychometrischen Güte der deutschen Version, zum anderen der Anwendbarkeit der Instrumente im deutschen Sprachraum. Zur Überprüfung der CBCL 1 1/2-5 diente eine gemischte Stichprobe von insgesamt 246 Kindern. 175 Bögen der Feldstichprobe wurden von Eltern in einer Kinderarztpraxis und verschiedenen Kindergärten ausgefüllt, 71 Beurteilungen in verschiedenen klinischen Einrichtungen, in denen Eltern ihre Kinder wegen Verhaltensauffälligkeiten vorgestellt haben. Die Stichprobe zur Überprüfung der C-TRF umfasst 176 Erzieherbeurteilungen aus verschiedenen Kindergärten und -krippen in und um Frankfurt/Main. 62 Kinder wurden gleichzeitig von Eltern und Erzieherin beurteilt. Bis auf wenige Ausnahmen zeigen die Reliabilitätsanalysen von CBCL 1 1/2-5, sowie C-TRF der hier vorliegenden deutschen Version gute interne Konsistenzen, die vergleichbare Werte mit der amerikanischen Originalstichprobe aufweisen. Lediglich die Skalen "Emotional Reaktiv" und "Körperliche Beschwerden" sind eher niedrig und sollten deshalb mit Vorsicht in die Einzelbewertung einfließen. Die gute Validität der CBCL 1 1/2-5 bestätigt sich durch die hochsignifikante Diskriminination der einzelnen Skalenrohwerte zwischen Feld- und Klinikstichprobe. Auch die Aufteilung der Klinikstichprobe in verschiedene Diagnosegruppen zeigte signifikante Unterschiede. Die Korrelation zwischen CBCL 1 1/2-5 und C-TRF, in denen von Eltern und Erzieherin das gleiche Kind beurteilt wurde, liegen im üblichen Bereich und stimmen weitgehend mit der amerikanischen Stichprobe überein. Insgesamt sind die aus den verschiedenen Stichproben ermittelten Mittelwerte und Standardabweichungen der CBCL 1 1/2-5 und der C-TRF vergleichbar mit der amerikanischen Originalstichprobe. Diese Ergebnisse sprechen dafür, dass die amerikanische Normierung ohne die Gefahr größerer Verfälschungen auch im deutschen Sprachraum angewandt werden kann, bis Normwerte an einer entsprechend repräsentativen Stichrobe vorliegen.
Glutamat ist der häufigste Neurotransmitter im menschlichen Hirn. Die Konzentration des Glutamats in der extrazellulären Flüssigkeit wird durch Glutamat-Transporter (Sekundärtransporter) kontrolliert. Liegt es in zu hoher Konzentration im synaptischen Spalt vor, kommt es zur Schädigung von Nervenzellen, ein Prozess, der als Exzitotoxizität bezeichnet wird. Eine Fehlfunktion oder fehlerhafte Produktion der Glutamat-Transporter im zentralen Nervensystem wird bei verschiedenen Krankheiten, wie der amyotrophen Lateralsklerose, der Ischämie, der Epilepsie, der Schizophrenie und der Alzheimer-Krankheit vermutet. Ziel dieser Arbeit war die Funktions- und Strukturanalyse der Glutamat-Transporter GLT-1 aus Rattus norvegicus und GltP aus E. coli, um die Familie der Glutamat-Transporter und die Entstehung der mit diesen Transportern in Verbindung gebrachten Krankheiten besser zu verstehen. Um die für diese Analysen gebrauchten Mengen an Protein herzustellen, mussten die Proteine heterolog produziert werden, da sie in natürlichen Geweben nicht in ausreichender Menge vorkommen. In dieser Arbeit wurde Glutamat-Transporter GLT-1 aus Rattus norvegicus funktional mit dem Semliki Forest Virus Expressionssystem überproduziert. Dazu wurden verschiedene Vektorkonstrukte hergestellt. Die routinemäßige Überproduktion des Transporters wurde im 8 l - Maßstab durchgeführt. In Zellen, die für die Produktion von GLT-1 mit rekombinanten, aktiven SF-Viren infiziert wurden, konnte eine sehr hohe Aktivität des Glutamat-Transporters nachgewiesen werden. Die Menge des hergestellten GLT-1 wurde in Bindungsexperimenten mit (2S,4R)-4-Methylglutamat quantifiziert: jede Zelle enthielt 3,5 x 106 Transporter: 61,04 pmol GLT-1/mg Gesamtprotein. Das entspricht einer Ausbeute von etwa 2-3 mg/8 l Zellkultur. Die hier durchgeführte Überproduktion des GLT-1-Glutamat-Transporters ist die erste Überproduktion eines eukaryotischen Sekundärtransporters mit dem Semliki Forest Virus Expressionssystem, bei dem große Mengen an aktivem Protein hergestellt werden konnten. Zudem ist die Ausbeute an funktionalem GLT-1 mit 61 pmol/mg Gesamtprotein verglichen mit den in der Literatur vorliegenden Daten zur Überproduktion eukaryotischer sekundärer Transporter mit anderen Expressionssystemen die höchste, die bis dato erreicht werden konnte. Der größte Anteil des heterolog produzierten GLT-1 war glykosyliert. Die gelelektrophoretische Analyse des aufgereinigten Transporters ergab zwei Banden, die ein apparentes Molekulargewicht von etwa 70-75 kDa und etwa 53-58 kDa hatten. In einer Western-Blot-Analyse konnten beide Banden des GLT-1-Transporters mit einem anti-His-Antikörper und einem anti-GLT-1-Antikörper nachgewiesen werden. Durch Deglykosylierung mit PNGase F und einer Trennung beider Banden durch Lektin-Affinitätschromatographie konnte gezeigt werden, dass es sich bei der 70-75 kDa-Bande um die glykosylierte Form und bei der 53-58 kDa-Bande um die nicht glykosylierte Form des Glutamat-Transporters handelte. Es wurde gezeigt, dass zwischen der Aktivität des GLT-1 und dessen Glykosylierung kein Zusammenhang besteht. Denn beide Formen lagen als vollständige, funktionale Transporter vor und transportierten nach Rekonstitution in Liposomen Glutamat. Der prokaryotische Glutamat-Transporter GltP aus E. coli wurde in dem E. coli-Stamm C43 (DE3) überproduziert. Die Ausbeute war etwa 2 mg pro Liter Kultur. Die Funktionalität des Transporters nach Rekonstitution in Lipidvesikel wurde durch spezifische Aufnahme von Glutamat gezeigt. Für die Solubilisierung beider Transporter aus den Zellmembranen wurden verschiedene Detergentien getestet. GltP ließ sich am besten mit DM oder DDM aus der Membran extrahieren, für die Solubilisierung des GLT-1 wurde mit großer Effizienz DDM oder CYMAL-7 eingesetzt. GltP und GLT-1 wurden mit einer Ni2+-NTA-Affinitätschromatographie in großer Menge und hoher Reinheit angereichert werden. Die Aufreinigungsprozedur beeinträchtigte nicht die Funktionalität des prokaryotischen GltP. Bei dem eukaryotischen Transporter GLT-1 war nach der Ni2+-NTA-Säule keine Transportaktivität mehr messbar. Durch Zusatz von Asolectin in den Wasch- und Elutionspuffern während der Aufreinigung konnte die Funktionalität des Transporters jedoch erhalten werden. Aufreinigungen mit anderen Lipiden unter anderem in Kombination mit Cholesterin lieferten einen Glutamat-Transporter, der in seiner Konformation stabilisiert, jedoch nach Rekonstitution nicht aktiv war. Eine weitere Steigerung der Ausbeute an aktivem GLT-1 konnte durch den Einsatz von Reduktionsmitteln, wie DTT oder b-Mercaptoethanol, die die Aggregation des Transporters verhinderten, erreicht werden. GltP katalysiert den elektrogenen Transport von Glutamat bzw. Aspartat unter Symport von mindestens zwei Protonen. GLT-1 transportiert ein Molekül Glutamat zusammen mit drei Na+-Ionen und einem Proton im Austausch gegen ein K+-Ion. Durch Transportmessungen konnte der hochspezifische Glutamat-Transport der aufgereinigten Transporter belegt werden. Der Glutamat-Transport des in Liposomen rekonstituierten GltP zeigte eine klare Abhängigkeit von einem anliegenden Protonengradienten. Aufgereinigtes und rekonstituiertes GLT-1 transportierte nur Aspartat bzw. Glutamat, wenn ein Na+ und ein K+-Gradient vorhanden waren. Die Aspartat- bzw. Glutamat-Aufnahme konnte bei beiden Transportern durch den kompetitiven nichttransportablen Inhibitor (2S,4R)-4-Methylglutamat blockiert werden. Der Assoziationsgrad der Glutamat-Transporter GltP und GLT-1 und das Gleichwicht zwischen den verschiedenen oligomeren Zuständen wurde in dieser Arbeit eingehend mit biochemischen Methoden untersucht: 1. „Cross-linking“-Studien, 2. Blaue Nativgelelektrophorese, 3. Analytische Ultrazentrifugation, 4. Laserlichtstreuung, 5. Gelfiltrationschromatographie. Die dabei erhaltenen Ergebnisse bewiesen eine tetramere Assoziierung beider Proteine. Die Gelfiltrationsexperimente zeigten, dass die Transporter in Detergenzlösung in unterschiedlichen Assoziationsgraden vorliegen. Das Gleichgewicht zwischen den oligomeren Formen war reversibel und abhängig von der Art und Konzentration des Detergenz, der Proteinkonzentration und der Temperatur. Zur Untersuchung der Struktur der Glutamat-Transporter wurden vor allem mit GltP zahlreiche 2D-Kristallisationsexperimente durchgeführt. Trotz Variation aller denkbar möglichen Parameter konnten keine Kristalle erhalten werden. Das beste Ergebnis war ein guter Einbau des Proteins in Lipidvesikel (etwa 80%). Da keine Kristalle erhalten wurden, wurde für beide Proteine eine Einzelpartikelanalyse durchgeführt. Dabei wurde nach zweidimensionaler Alignierung und Klassifizierung die „random conical tilt“-Methode angewendet. Die daraus resultierenden dreidimensionalen Dichtekarten des GltP und GLT-1 waren sehr ähnlich und wiesen vier nicht exakt symmetrische Massen in annähernd quadratischer Anordnung auf. Die Auflösung war 26 Å bzw. 36 Å. Die Größe der Einzelpartikel (für GltP: Höhe 37 Å, Breite 75 Å bzw. 86 Å, Länge 100 Å). ihre annähernd quadratische Anordnung und ihre Symmetrie lassen vermuten, dass es sich dabei um Tetramere der Glutamat-Transporter handelt, die aus zwei nicht symmetrischen Dimeren zusammengesetzt sind. Die hier präsentierten Daten sind die ersten zur dreidimensionalen Struktur von Glutamat-Transportern. Schließlich wurde nachgewiesen, dass der in BHK-Zellen heterolog exprimierte Glutamat-Transporter GLT-1 vorwiegend in „lipid rafts“ lokalisiert ist. Die Größe der „rafts“, die anhand der Größe der „Proteininseln“ in Gefrierbrüchen bestimmt wurde, war etwa 200 nm im Durchmesser. Die „GLT-1-Inseln“ bzw. „lipid rafts“ konnten durch das teilweise Entfernen von Cholesterin aus der Membran zerstört werden. Damit ging eine Reduktion der Glutamat-Transporter-Aktivität von etwa 20% einher. Es ist das erste Mal, dass „lipid rafts“ durch die natürliche Assemblierung von Proteinen mit Hilfe von Gefrierbruchanalysen und Elektronenmikroskopie beobachtet wurden.
In dieser Studie wurden Patienten untersucht, die einen malignen Hirninfarkt erlitten hatten und mit Hilfe der dekompressiven Hemikraniektomie behandelt wurden. Es wurden die funktionelle Beeinträchtigung, die Körperbehinderung und die Lebensqualität untersucht. Die Patienten wurden sechs Monate nach dem Ereignis kontaktiert, um eine Nachuntersuchung durchzuführen. Dabei wurden die Patienten bezüglich ihrer Beeinträchtigung, Körperbehinderung und Lebensqualität beurteilt. Die Studie beinhaltete 36 Patienten. Daraus resultiert eine Überlebensrate von 64%. Bei 10 Patienten wurde die Beeinträchtigung mit dem Barthel Index mit 50 Punkten beurteilt. In drei Fällen betrug der BI 90 Punkte. Die Mehrheit der Patienten (12) zeigte ernste Beeinträchtigungen (BI<50). Die Behinderung korrelierte negativ mit dem Patientenalter. 16 Patienten waren nicht in der Lage zu gehen und benötigten bei der täglichen Arbeit Hilfe, was einen mRS von 4 oder 5 Punkten entspricht. Keiner der Patienten erreichte einen unabhängigen Status. Patienten, die eine höhere BI-Punktezahl hatten, waren signifikant jünger, hatten weniger schwere Beeinträchtigungen bei der Krankenhausaufnahme, wurden kürzer mechanisch ventiliert und verließen die Intensivstation früher. Die Schwere der Angst oder der Depression korrelierte dabei signifikant mit der Schwere der Behinderung. Die dekompressive Hemikraniektomie verbessert die Überlebensrate dramatisch, reduziert aber nicht die Größe des Infarktvolumens. Die Mehrzahl der Patienten wurde durch den Infarkt deutlich in ihrem Leben beeinträchtigt. Insgesamt ist die Lebensqualität reduziert.
Schon zu Beginn der Schizophrenieforschung ist man immer wieder auf Fälle gestoßen, die sich nicht oder nur schwer kategorisieren ließen. So erkannte bereits Kraepelin (1920) das Problem von Symptomkonstellationen, die sich nicht eindeutig in sein dichotomes Modell von „Dementia praecox“ und „manisch-depressivem Irresein“ (1896) einfügten. Es handelte sich um Patienten, die schizophrene Symptome und affektive Störungen im Wechsel oder aber auch gleichzeitig aufwiesen. In den folgenden Jahren gab es viele Bezeichnungen für derlei Phänomene. Es wurde von „Mischpsychosen“, einem „intermediären Bereich“ oder von „atypischen Psychoseformen“ gesprochen. Kurt Schneider (1980) bezeichnete sie als „Zwischenfälle“, Kasanin (1933) prägte den heute verwandten Begriff der „schizoaffektiven Psychosen“. Betrachtet man nun Langzeitverläufe über viele Jahre, so können in einigen Fällen Übergänge von der einen in die andere nosologische Entität beobachtet werden. Häufiger und besser belegt handelt es sich um Syndromwechsel von einer primär affektiven Störung hin zu einer schizophrenen Psychose. Wobei Marneros (1991) im Rahmen seiner großen Langzeitstudie, die den Verlauf affektiver, schizoaffektiver und schizophrener Psychosen miteinander vergleicht, deutlich darauf hinweist, dass sich keine typische Richtung eines Syndromwechsels oder Bevorzugung eines bestimmten Verlaufs belegen lässt. In unserer katamnestisch Studie beschäftigen wir uns ausführlich mit fünf Langzeitverläufen, die einen Übergang einer eindeutig diagnostizierten Schizophrenie mit mehreren Schüben und Exarcerbationen in eine bipolare Störung zeigen. Es handelt sich um eine explorative Arbeit, die bei allen Patienten eine mehr als 20-jährige Krankheitsgeschichte beleuchtet. Im Mittelpunkt stand die Untersuchung vieler sorgfältig geführter Krankenakten, die sowohl Aufzeichnungen der behandelnder Psychiater und Pflegekräfte enthielten, als auch Zusatzmaterialien wie Briefe, Postkarten und Bilder umfassten. Als wesentliches Mittel zum Herausstellen des Syndrom wechsels bzw. des Strukturwandels diente uns die genaue Betrachtung der erlaufspsychopathologie. Ergänzt wurden unsere Beobachtungen bezüglich der Krankheitsverläufe durch eigene Einschätzungen und Beurteilungen der Patienten, die in einem freien Interview in den Jahren 2002 und 2003 erhoben wurden. In allen fünf Fällen war ein eindeutiger Wandel der Symptomatik zu erkennen, welcher als solcher auch von den untersuchten Patienten empfunden und in den Interviews eindrücklich beschrieben wurde. Es zeigte sich bei allen fünf männlichen Patienten mit einem durchschnittlichen Ersterkrankungsalter von 22,6 Jahren, dass die erste Manie im Durchschnitt nach 10,4 Jahren und eine erste Depression im Durchschnitt nach folgenden 8,2 Jahren auftrat. Da nach dem Syndromwechsel Symptome aus dem schizophrenen Formenkreis bis heute fehlen, lässt sich in unseren Fällen die Bezeichnung als schizoaffektive Psychose nicht halten. Es handelt sich also um einen Syndromwechsel im Sinne eines Entitätenwechsels, der über Jahre hinweg stabil bleibt. Auch der Ausgang der Erkrankung unterstreicht unsere Beobachtung. Bei allen Patienten ist sowohl subjektiv als auch objektiv ein positiver Ausgang festzustellen. Dieses Phänomen deckt sich mit den Ergebnissen der vielfältig durchgeführten Studien zum besseren Ausgang von affektiven als von schizophrenen Erkrankungen. Konsequenterweise führte eine Phasenprophylaxe mit Lithium in allen Fällen zu einem Behandlungserfolg. In der Literatur fehlen bisher sorgfältig recherchierte und über viele Jahre belegte Krankheitsverläufe mit dem beschriebenen Strukturwandel der Erkrankung. Die Frage, womit ein solcher Übergang zusammenhängen könnte, kann derzeit nicht beantwortet werden. Diskutiert wird die Wirkung von Neuroleptika, hier vor allem deren depressiogene Potenz. Wenn man diese depressiogene Wirkung verantwortlich machen wollte, wäre nach dem Übergang in eine affektive Störung zunächst eine depressive Phase zu erwarten. Das Gegenteil ist bei unseren Patienten der Fall: alle unsere Patienten entwickelten nach einem durchschnittlichen Intervall von 10,4 Jahren zuerst eine Manie und dann im weiteren Verlauf eine Depression. Mit Hilfe eines psychodynamischen Erklärungsversuches könnte der Strukturwandel als ein Prozess verstanden werden, der dazu diente, der drohenden Ich-Destruktion und – Fragmentierung entgegenzuwirken und über Jahre zur Entwicklung eines höheren psychischen Strukturniveaus der Patienten geführt hat. Es bleibt in jedem Fall festzuhalten, dass weitere Studien auf dem Forschungsgebiet des Syndromwechsels wünschenswert wären, um dem Wesen des Wandels und auch der damit verbundenen klinisch relevanten therapeutischen Konsequenzen näherzukommen.
Die vorliegende Arbeit beschäftigt sich mit der Modellierung der neuronalen Prozesse, die auditorischen Lokalisationsleistungen zugrunde liegen. Viele der hierzu aktuell diskutierten Modellvorstellungen lassen sich auf ein von L. Jeffress bereits in der Mitte des letzten Jahrhunderts vorgeschlagenes Netzwerkmodell zurückführen: Nach Jeffress werden interaurale Laufzeitunterschiede (ITDs) zwischen beiden auditorischen Pfaden in einem Netzwerk von Detektorneuronen (Koinzidenzdetektoren) ausgewertet. Systematische Laufzeitunterschiede resultieren aus der Architektur des Netzwerks, die sogenannte Delay-Lines realisieren soll. Trotz einer Reihe von Evidenzen für das im auditorischen Diskurs inzwischen als Paradigma geltende Modell, findet Kritik am Jeffress-Modell in jüngerer Zeit zunehmend Beachtung und Interesse. So argumentieren B. Grothe und D. McAlpine gegen die Übertragung des Delay-Line Modells auf die Verhältnisse bei Säugern. Zentrales Moment ihrer Kritik ist eine Afferenz der MSO aus einem weiteren Teilgebiet der Olive (MNTB). Wesentlicher Effekt der von der Projektion gebildeten inhibitorischen Synapse ist eine relative Verschiebung der Best-Delays der MSO-Zellen zur Präferenz contralateraler Delays. Damit besteht nicht nur zu der nach dem Jeffress-Modell notwendigen Aufteilung der Best-Delays ein Widerspruch, die ITDs liegen bei tiefen Frequenzen für kleine Säuger aufgrund deren geringer Kopfgröße außerhalb des Bereichs physiologisch auftretender Delays. In dieser Arbeit werden die Ergebnisse von Grothe und McAlpine durch Compartmental Modeling analysiert. Gegenüber einer Simulationsstudie aus den Gruppen von Grothe und McAlpine werden von uns durch explizite Modellierung der Dendriten zusätzliche Effekte der Inhibiton beschrieben. Wir stellen dar, wie die Topographie von Inhibiton und Excitation die Verarbeitungsprozesse in Bipolar-Zellen durch dendritische Low-Pass Filterung und Kontrastverst ärkung zwischen minimaler und maximaler Spikerate unterstützt. Unsere Ergebnisse können die empirisch nachgewiesene Verteilung excitatorischer (distaler) und inhibitorische (proximaler) Synapsen erklären. In der abschliessenden Analyse der von den Bipolar-Zellen generierten Spike Trains wird das von Grothe und McAlpine entworfene alternative ITD-Codierungsmodell auf der Basis von Ratencodes problematisiert: Bislang erklärt ihr Vorschlag nicht, wie organismische Lokalisationsleistungen auf der Basis weniger Spikes realisiert werden können.
Bei der chronisch venösen Insuffizienz (CVI) handelt es sich um einen im Bereich der unteren Extremität lokalisierten varikösen Symptomenkomplex bestehend aus Beschwerden wie Schmerzen, Schwere-, Spannungsgefühl, Juckreiz uvm. Dazu kommen stadienabhängig trophische Hautveränderungen, bedingt durch veränderte Kapillarmorphologie und -dichte. Diese Veränderungen können, je nach Ausprägungsgrad, von Hyperpigmentation über Dermatitis, Corona phlebectatica paraplantaris, Atrophie blanche bis hin zum floriden Ulcus cruris venosum reichen.
In der Bundesrepublik Deutschla nd leiden ca. 10-15 Millionen Menschen an einer manifesten CVI. Der CVI kommt aufgrund ihrer hohen Prävalenz eine hohe sozialmedizinische und sozialökonomische Bedeutung zu. Der pathophysiologische Mechanismus, der der CVI zugrunde liegt, ist bei Hinzukommen von begünstigenden Faktoren, z.B. Orthostasebelastung, in der Entwicklung von insuffizienten Venenabschnitten oder Insuffizienzpunkten im Bereich der Venenklappen oder anderen am Rücktransport des Blutes zum Herzen beteiligten Mechanismen zu suchen.
Eine Vielzahl von Therapieverfahren, wie etwa operative Eingriffe und Sklerosierungen, sind auf die Ausschaltung dieser Insuffizienzpunkte ausgerichtet. Diese Verfahren sind gründlich erforscht und durch klinische Studien wohldokumentiert. Ihre Grenzen liegen zum einen in möglichen Nebenwirkungen, zum anderen in der grundlegend chronisch degenerativen Natur der Erkrankung, deren Ursachen durch solche Therapieformen nicht erfasst werden.
Andere, nicht invasive und meist physikalische Therapieformen zielen auf eine Verbesserung der subjektiv empfundenen Lebensqualität ab. So ist etwa die Wirksamkeit von kalten hydrotherapeutischen Anwendungen wie Knie- oder Beingüssen, Wassertreten, Lehm-Wadenwickeln oder wechselwarmen Anwendungen nach Kneipp auf die subjektiven Beschwerden mehrfach beschrieben und in evidenten Studien belegt worden.
Wie es sich in diesem Zusammenhang mit der Wirksamkeit kalter Lehmpackungen, so wie sie als ortsgebundenes Heilmittel in Kurbädern Anwendung finden, verhält, ist hingegen bis dato nicht systematisch ergründet worden. Um diesen Mangel zu beheben, wurde die vorliegende randomisierte, kontrollierte Studie zur Wirksamkeit von kalten Lehmpackungen auf die Beine von CVI-Patienten entworfen. In dieser Studie wurden zum einen die Wirkungen dieser Behandlungsform auf die subjektiv erfassten Größen Lebensqualität, Schmerzen und Stauungsbeschwerden ermittelt, unter Anwendung des SF (short form) 36-Fragebogens und der visuellen Analogskala (VAS). Als Hauptzielgröße wurde die subjektiv empfundene Lebensqualität gewählt. Zum anderen wurden die objektiven Messparameter Knöchel-, Wadenumfang, transkutan gemessener Sauerstoffpartialdruck und die venöse Wiederauffüllzeit als Nebenzielgrößen erfasst.
Im direkten Anschluss an die Therapie lassen sich signifikante Verbesserungen der subjektiven Messparameter verzeichnen. Diese fallen bei den krankheitsspezifischen Faktoren und im körperlichen Lebensqualitätsprofil deutlicher aus als im psychischen Lebensqualitätsprofil. Innerhalb des körperlichen Lebensqualitätsprofils wiederum zeigen sich die deutlichsten Verbesserungen bei der körperlichen Rollenfunktion, gefolgt von den körperlichen Schmerzen. Das psychische Lebensqualitätsprofil weist die deutlichste Verbesserung bei der emotionalen Rollenfunktion auf. Diese Ergebnisse lassen sich in der vorliegenden Kombination vor dem Hintergrund der Beobachtungen erklären, dass zum einen die CVI eine chronisch degenerative körperliche Erkrankung ist, deren Effekte sich vornehmlich in körperlichen und psychischen Funktionalitätseinbußen manifestieren, und dass sich zum anderen das Patientenkollektiv der Studie durch fortgeschrittenes Alter und einen insgesamt unterdurchschnittlichen gesundheitlichen Allgemeinzustand auszeichnet. Alter und gesundheitlicher Allgemeinzustand wiederum gehen in erster Linie mit dauerhaft empfundenen Beeinträchtigungen der körperlichen und psychischen Rollenfunktionen einher. Durch die Lehmpackungen gelingt nun eine Reduktion der Schmerzen und anderer Beeinträchtigungen der körperlichen Befindlichkeit (Schweregefühl, Juckreiz). Diese Verbesserungen machen es dem Patienten möglich, seine an ihn gestellten Rollenerwartungen besser zu erfüllen.
Die erreichten positiven Effekte auf die subjektiven Parameter tendieren nach drei Monaten wieder in Richtung Ausgangswert, ohne diesen jedoch zu erreichen, so dass sich eine gewisse Nachhaltigkeit des Therapieeffektes zeigt. Die objektiven Messparameter tendieren in Richtung einer Verbesserung (Ausnahme: venöse Wiederauffüllzeit rechts), erreichen jedoch kein hinreichendes Signifikanzniveau. Um diesbezüglich ein aussagekräftiges Ergebnis zu erhalten, wären ggf. eine Vergrößerung der Stichprobe und andere bzw. verfeinerte Messmethoden angebracht.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die thermische Zersetzung von Vitriolen MIISO4 H2O (M = Fe, Mn, Co, Ni, Zn und Mg) und von anderen Sulfathydraten wurde untersucht, um zu klären, ob sie für die Entdeckung der Schwefelsäure und deren Gewinnung nach dem früher üblichen Verfahren der Vitriolbrennerei in Betracht kommen. Eisenvitriol wird beim Erhitzen entwässert, durch Luft oxidiert und zerfällt bei etwa 550°C in ein Eisen(III)-oxidsulfat der wahrscheinlichen Zusammensetzung Fe16O9(SO4)15, aus dem bis 650°C alles Schwefeltrioxid abgespalten wird. Bei diesen Temperaturen zerfällt nur ein kleiner Teil des Schwefeltrioxids in Schwefeldioxid und Sauerstoff. Alle anderen Vitriole zersetzen sich erst bei 800-850°C vollständig, d.h. unter Bedingungen, unter denen überwiegend Schwefeldioxid gebildet wird. Die partielle Oxidation von Mangan und Cobalt, durch die Mn3O4 bzw.Co3O4 entstehen, findet ebenfalls bei 600-700°C statt. Die Zersetzung von Aluminium- und Eisen(III)-sulfat beginnt bei niedrigen Temperaturen und ist beim Eisen(III)-sulfat bei 600-700°C abgeschlossen. Aluminiumsulfat wird aber erst bei über 800°C vollständig zersetzt. Die Untersuchung der Zersetzungsreaktionen ließ verschiedene Zwischenprodukte erkennen, insbesondere Oxidsulfate, von denen einige – wie Fe16O9(SO4)15 – näher charakterisiert wurden. Die Schwefelsäure ist wahrscheinlich beim Erhitzen von Eisenvitriol entdeckt worden, der schon seit der Antike bekannt war. Mehrere Vorschriften zum Erhitzen von Eisenvitriol allein oder im Gemisch mit anderen Sulfaten sind aus der arabischen Alchemie des frühen Mittelalters bekannt. In Europa erscheinen solche Vorschriften im 13. Jahrhundert. Auch dem frühen technischen Verfahren seit dem 17. Jahrhundert lag die Zersetzung von Eisenvitriol unter Luftzutritt zu Grunde. Verunreinigungen durch andere Vitriole, insbesondere des Zinks und Mangans, haben vermutlich die Ausbeute verringert. Das neuere technische Verfahren, das bis 1900 betrieben wurde, ging von „Vitriolstein“ aus. Dieses Gemisch von Eisen(III)- und Eisen(II)-sulfat mit wenig Aluminiumsulfat und sehr geringen Mengen anderer Sulfate wurde durch Auslaugen von Vitriol- bzw. Alaunschiefer gewonnen. Welche Eisenverbindungen es enthielt, ist nicht sicher. Ihre Zersetzung lief aber wahrscheinlich ähnlich ab wie die von Eisen(III)-sulfat. Auch bei diesem Verfahren war der Eisensulfatgehalt des Rohstoffes entscheidend für den Erfolg.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Das Sturge-Weber Syndrom ist eine kongenitale neuroektodermale Erkrankung aus dem Formenkreis der Phakomatosen mit einer Inzidenz von eins auf 50.000 Neugeborene ohne familiäre Häufung und ohne bestimmte ethnische- und Geschlechtszugehörigkeit. Es ist gekennzeichnet durch leptomeningeale Angiomatose, Glaukome und Feuermale im Ausbreitungsgebiet des Trigeminusnervs. Klinisch manifestiert es sich durch Krampfleiden, neurologische Defizite, Glaukomanfälle, migräneartige Kopfschmerzen, schlaganfallartige Ereignisse und mentale Retardierung. Da die Erkrankung mit Vergrößerung der leptmeningealen Angiome progredient ist, wurde in dieser Arbeit der Frage nach angiogenen Prozessen in diesen Angiomen nachgegangen. Immuhistochemisch untersucht und semiquantitativ ausgewertet wurden die Proteine der angiogenen Faktoren VEGF, VEGFR-1 und-2, NP-1, Tie-2, Hif-1a und Hif-2a. Für alle Faktoren zeigten sich erhöhte Expressionslevel im Vergleich zu den Epilepsie- Negativkontrollen. Zudem zeigte sich eine erhöhte Proliferations- und Apoptoserate in den leptomeningealen Angiomen und den intraparenchymalen Gefäßen des darunterliegenden Cortex’. Die Ergebnisse sprechen für das Vorhandensein aktiver angiogener Prozesse in leptomeningealen Angiomen bei Sturge-Weber Syndrom Patienten. Als Arbeitsmodell wird vorgeschlagen, dass eine endothelzellintrinsische Hif Aktivierung (intrinsischer Signalweg) die Gefäße für eine erhöhte VEGF Stimulation (extrinsischer Signalweg) empfänglich macht und somit zu Erhalt und Progredienz der Angiome beiträgt. Eine therapeutische Option könnte eine antiangiogene Strategie zur Eindämmung oder Regression der Angiome darstellen.
In zahlreichen Studien konnte ein tumorwachstumshemmender Effekt der überwiegend in Fischöl vorkommenden Omega-3-Fettsäuren, insbesondere der Eikosapentaensäure (EPA), belegt werden. In den bisher vorliegenden Studien wurde überwiegend der Effekt freier Fettsäuren auf das Wachstum von Tumorzellen untersucht. Ziel dieser Studie war es deshalb, den Effekt einer Fettemulsion mit komplexer Triglyzeridstruktur, die als solche auch am Patienten im Rahmen einer parenteralen Ernährung Anwendung findet, auf das Wachstum der Pankreaskarzinomzelllinie Mia-Paca-2 und der Kolonkarzinomzelllinie Caco-2 zu untersuchen, und die zugrundeliegenden Mechanismen für die erhobenen Effekte zu evaluieren. • Die in der vorliegenden Studie eingesetzte Fischölemulsion hemmte die Proliferation sowohl der Pankreaskarzinomzelllinie Mia-Paca-2 als auch der Kolonkarzinomzelllinie Caco-2 dosis- und zeitabhängig. Dieser Effekt war auf eine Zunahme der Apoptoseinduktion und eine Blockierung der Zellen in der S- und G2/M-Phase des Zellzyklus zurückzuführen. Tumorzellen sind in der Lage, durch Expression von Wachstumsfaktoren ihr Zellwachstum selbständig zu stimulieren. Eine bedeutende Rolle scheint in diesem Zusammenhang der epidermale Wachstumsfaktor (EGF) zu spielen. Bei zahlreichen Tumoren kann eine Überexpression des membranständigen EGF-Rezeptors nachgewiesen werden. Es gibt Hinweise, dass die Modifikation der Lipidkomposition zellulärer Membranen durch ein verändertes Angebot an mehrfach ungesättigten Fettsäuren mit einer Änderung der Aktivität von Membranrezeptoren einhergeht. In weiterführenden Experimenten wurde deshalb der Einfluß von EGF auf das Wachstum der mit der Omega-3-fettsäurereichen Fischölemulsion vorbehandelten Pankreaskarzinomzelllinie Mia-Paca-2 untersucht. • Eine Präinkubation der Mia-Paca-2 Zellen mit der Omega-3-fettsäurereichen Fischölemulsion führte zu einer Umkehrung des wachstumsfördernden Effektes von EGF. Eine entscheidende Determinante in der Entwicklung und dem Wachstum von Tumoren ist deren Sensitivität gegenüber chemotherapeutischer Behandlung. Das Auftreten von chemotherapieresistenten Tumorzellen ist häufig limitierender Faktor für eine erfolgreiche zytostatische Therapie. In einem weiteren Versuchsansatz sollte deshalb der Fragestellung nachgegangen werden, ob eine Verbesserung der Wirksamkeit gängiger Chemotherapeutika in der Antitumortherapie von Pankreas- und Kolonkarzinomen nach kombinierter Behandlung mit der Fischölmulsion zu erwarten ist. • Der Einsatz der Fischölemulsion in Kombination mit Gemcitabin und 5-FU bei Mia-Paca-2 Zellen bzw. Caco-2 Zellen führte zu einem additiven wachstumshemmenden Effekt. Die Ergebnisse der vorliegenden Arbeit belegen, dass Omega-3-fettsäurereiche Lipidemulsionen eine sinnvolle adjuvante therapeutische Maßnahme in der Behandlung des Pankreas- und Kolonkarzinoms darstellen können.
Wir haben Interaktion in der Kommunikationskomplexität untersucht und dabei die drei Modi probabilistische, (beschränkt) nichtdeterministische und quantenmechanische Kommunikation betrachtet. Bei allen drei Modi haben wir herausgefunden, dass Interaktion für Effzienz oft unerlässlich ist, im nichtdeterministischen Fall gibt es eine Abhängigkeit zwischen dem Einfluss der Interaktion und der erlaubten Anzahl der nichtdeterministischen Ratebits. Abgesehen von dem erreichten besseren Verständnis des Kommunikationsmodells haben wir verschiedene Anwendungen auf andere Berechnungsmodelle beschrieben, bei denen untere Schranken der Kommunikation zu unteren Schranken für andere Ressourcen in diesen Modellen geführt haben. Ein Beispiel eines kommunikations- und interaktionsbeschränkten Modells sind endliche Automaten, welche wir in allen drei Modi untersucht haben. Ein weiteres Beispiel sind Formeln, für die wir eine Verbindung zwischen Einweg Kommunikation und Formellänge herstellen konnten. Diese Verbindung führte zu unteren Schranken für probabilistische, nichtdeterministische und Quanten Formeln. Dabei sind die unteren Schranken für Quanten Formeln und probabilistische Formeln im wesentlichen gleich. Für monotone Schaltkreise haben wir gezeigt, wie nichtdeterministisches Raten die Tiefe drastisch reduzieren kann, und wie eine geringfügige Einschränkung der nichtdeterministischen Ratebits zu einer Tiefenhierarchie führt. Insgesamt lässt sich feststellen, dass die Schwäche interaktionsbeschränkter Kommunikation mathematisch nachvollziehbar ist. Außerdem scheint ein solches Verhalten in der Welt einfacher Berechnungsmodelle häufig aufzutreten. Oder anders gesagt, viele Berechnungsmodelle sind deshalb einfacher zu verstehen, weil sie durch interaktionsbeschränkte Kommunikation analysierbar sind.
Als Sohn Therese Alzheimers geb. Busch (1840-1882) und des Notars Eduard Alzheimer (1830-1891) wurde Alois Alzheimer am 14. Juni 1864 in Marktbreit (Landkreis Kitzingen) geboren. Er hatte zwei Schwestern und drei Brüder sowie einen Halbbruder und eine Halbschwester. Als Zehnjähriger kam Alois Alzheimer nach Aschaffenburg und absolvierte bis Juli 1883 das Königliche humanistische Gymnasium, wie bereits sein Vater und dessen fünf Brüder. Nach dem Militärdienst in Aschaffenburg studierte Alois Alzheimer ab dem Wintersemester 1883 Medizin in Berlin, Tübingen und Würzburg. Nach dem Staatsexamen im Juni 1888 in Würzburg wurde er mit der Dissertation „Über die Ohrenschmalzdrüsen“ zum Dr. med. promoviert. Nach einer Assistentenzeit bei seinem Doktorvater Albert von Koelliker (1817-1905) begleitete er eine geisteskranke Dame auf ihren Reisen. Ende 1888 wurde Alois Alzheimer Assistenzarzt und 1895 Oberarzt in Frankfurt a. M. bei Emi Sioli (1852-1922), wo er ab Ende 1901 die erste bekannte Alzheimer-Kranke, Auguste Deter (1850-1906), behandelte.
Alois Alzheimer heiratete 1894 die Witwe Cecilie Geisenheimer geb. Wallerstein (1860-1901). Sie hatten drei Kinder: Gertrud Stertz geb. Alzheimer (1895-1980), Hans Alzheimer (1896-1981) und Maria Finsterwalder geb. Alzheimer (1900-1977). Alois Alzheimer hatte auch zwei Patenkinder: Alois Alzheimer (1892-1892) und Generaldirektor Dr. jur. Alois Alzheimer (1901-1987).
Alois Alzheimer (1864-1915) war ab 1903 Mitarbeiter Emil Kraepelins (1856-1926) in Heidelberg und München. Neben seiner ärztlichen Tätigkeit habilitierte sich alois Alzheimer 1904 mit der Arbeit „Histologische Studien zur Differentialdiagnostik der progressiven Paralyse“ habilitierte. Hierfür erhielt er im Januar 1912 in Leipzig den Paul-Julius-Möbius-Preis. Alois Alzheimer wurde 1904 Privatdozenten und 1909 außerordentlichen Professor in Bayern ernannt. In der im Herbst 1910 publizierten 8. Auflage seines Psychiatrie-Lehrbuchs, das im Herbst 1910 erschien, verwendete Emil Kraepelin erstmals das Eponym „Alzheimersche Krankheit“. Alois Alzheimer verdanken wir wesentlich mehr als diesbezügliche Forschungen und seine beiden Publikationen von 1906 und 1911 zu der später nach ihm benannten Krankheit, wodurch sein Name weltweit bekannt wurde und bis heute ist. Die von ihm bearbeiteten neurologischen und psychiatrischen Gebiete weisen kaum Überschneidungen auf. Er betrat mehrfach wissenschaftliches Neuland oder entwickelte Erkenntnisse weiter. Zu nennen sind hier u. a. seine Publikationen über Schizophrenie, Chorea Huntington, Epilepsie, Encephalitis, Erschöpfungspsychosen, manisch-depressives Irresein, Lumbalpunktion, Fetischismus, Indikationen für eine künstliche Schwangerschaftsunterbrechung bei Geisteskranken, Delirium, „geborene Verbrecher“, Alkoholkrankheit und Kriegsneurosen.
Zusammen mit seinem Chefarzt Emil Kraepelin behandelte Oberarzt Alois Alzheimer auch überegional bekannte Patienten wie den Nobelpreisträger Emil von Behring (1854-1917) und sog. „Wolfsmann“ Sergius Pankejeff (1887-1979) sowie das Vorbild für die „Clarisse in Robert Musils (1880-1942) Roman „Mann ohne Eigenschaften“, Alice Donath geb. Charlemont (1885-1939). Alois Alzheimer genoss schon zu Lebzeiten ein internationales Renommee. Gastärzte und Assistenten waren unter anderem Solomon Carter Fuller (1872-1953), Francesco Bonfiglio (1833-1966), Gaetano Perusini (1879-1915), Alfons Jakob (1884-1931) und Hans-Gerhard Creutzfeldt (1885-1961). Alois Alzheimer war ab 1910 zusammen mit Max Lewandowsky (1876-1918) Schriftleiter der neuen "Zeitschrift für die gesamte Neurologie und Psychiatrie".Im Juli 1912 wurde Alois Alzheimer ordentlicher Professor für Psychiatrie und Neurologie in Breslau und Chefarzt der Universitätsklinik. Er war zu Beginn des Ersten Weltkrieges auch im dortigen Festungslazarett eingesetzt.
Alois Alzheimer starb am 19. Dezember 1915 an Herzmuskelentzündung und Nierenversagen. Er wurde auf dem Hauptfriedhof in Frankfurt a. M. neben seiner Ehefrau beigesetzt.
In einem eigenen Kapitel werden die Geschichte der Alzheimer-Krankheit beleuchtet und aktuelle Erkenntnisse aufgezeigt. Die vorliegende Arbeit wird ergänzt durch relevante Hinweise auf die rechtliche Vorsorge durch eine Patientenverfügung und Vollmacht, ggf. die Errichtung einer Rechtlichen Betreuung, wenn ein/e Alzheimer-Kranke/r seine Angelegenheiten nicht mehr selbst regeln kann und in geistig gesunden Tagen keine schriftlichen Festlegungen getroffen hat. Erläutert werden ebenso Nachteilsausgleiche bei Schwerbehinderung sowie Hilfen bei Krankheit und Pflegebedürftigkeit: häusliche Pflege in Privatwohnungen oder Anlagen für Betreutes Wohnen, Tagespflege, Kurzzeitpflege und vollstationäre Dauerpflege in Seniorenheimen. Aufgezeigt werden auch Leistungen der Krankenkassen und Zuschüsse nach dem Pflegeversicherungsgesetz sowie bei Bedürftigkeit ergänzende Sozialhilfe zu erhalten.
In der vorliegenden Arbeit wurden zehn Substanzen, die im Rahmen des Projekts INTAFERE analytisch in verschiedenen Gewässersystemen des Hessischen Rieds nachgewiesen werden konnten, ökotoxikologisch charakterisiert. Neben der Bestimmung der Akut- und der chronischen Toxizität wurde auch das endokrine Potential mit Hilfe eines rekombinanten Hefe-Assays ermittelt.Die akute Toxizität zeigt zwischen den verschiedenen Substanzen große Differenzen. Die drei Organophosphate TCPP, TBEP und TCEP zeigen selbst bei hohen Konzentrationen keine oder nur sehr geringe Effekte, während 4-NP, 4-t-OP, BPA, TDCPP, AHTN und Terbutryn mit LC50-Werten bis zu 5 mg/l eine höhere Toxizität besitzen.Im Hefe-Assay kann in mehreren Versuchswiederholungen das östrogene Potential von 4-NP (MW: 6,71x10-6 M), 4-t-OP (MW: 7,16x10-6 M) und BPA (MW: 4,88x10-6 M), sowie die antiandrogene Wirkung des Bisphenols (5,29x10-5 M) bestätigt werden. Im Gegensatz dazu können im Yeast Antiestrogen Screen zum ersten Mal Hinweise auf die antiöstrogene Wirkung von TCPP (MW: 6,86x10-5 M), Terbutryn (MW: 3,99x10-5 M), TDCPP (MW: 2,65x10-6 M) und TBP (MW: 2,28x10-5 M) aufgezeigt werden.TBP und TDCPP führen auch in der chronischen Exposition bei Potamopyrgus antipodarum zu einer Reduktion in der Embryonenzahl (mehrfach beobachtete NOEC beider Substanzen: 6,25 mg/kg), ein Effekt, der zunächst nicht von einer toxischen Wirkung unterschieden werden kann. Allerdings scheint sich ein antiöstrogener Wirkmechanismus auf die Schnecken bei den Versuchen zur Mischtoxizität zu bestätigen, da die gleichzeitige Exposition gegenüber BPA und 4-tOP zu einer geringfügigen Aufhebung des Effekts führt. Potamopyrgus reagiert ebenfalls mit einer Reduktion der Embryonenzahl bei der Exposition gegenüber AHTN (mehrfach beobachtete NOEC: 2 mg/kg), zeigt sich aber insensitiv gegenüber der Belastung mit Terbutryn.Die Exposition von Chironomus riparius gegenüber den verschiedenen Substanzen führt bis auf eine Ausnahme zu keinen signifikanten substanzbedingten Beeinträchtigungen. Einzig das s-Triazin Terbutryn verursacht eine hohe Mortalität mit einer NOEC (28 d) von 250 μg/kg. Eine Toxizität auf den Anneliden Lumbriculus variegatus zeigt sich lediglich bei derExposition gegenüber BPA (NOEC: 10 mg/kg; Biomasse, 28 d) und 4-NP (EC10: 6,88 mg/kg; 95% KI: 3,97-11,9; Reproduktion, 28 d). Die durchgeführten Versuche zur Toxizität von Mischungen zeigen eine größere Gefährdung auf als bei Vorliegen der Einzelsubstanzen in Konzentrationen unterhalb ihres Schwellenwertes zu vermuten wäre. Allerdings lassen sich die mit dem Hefe-Assay erzielten Ergebnisse aufgrund großer Variabilitäten zwischen den einzelnen Versuchswiederholungen nicht immer eindeutig mit Hilfe des additiven oder des unabhängigen Modells beschreiben, zeigen dabei jedoch trotzdem ein gegenüber den Einzelsubstanzergebnissen verändertes Risiko auf. Um diesem in der Risikobewertung Rechnung zu tragen, wird ein Verfahrensvorschlag entwickelt, in dem durch zusätzliche Sicherheitsfaktoren für PNECs ein Überschreiten des risikoanzeigenden Werts von 1 des PEC/PNEC-Quotienten einer Mischung verhindert werden kann.
Während sich das deutsche Erziehungs-, Bildungs- und Sozialsystem durch Achtung und Expansion „institutioneller Vielfalt“ auszeichnet, wird in Spanien spätestens seit 1990 mit unterschiedlicher Intensität, je nach Regierung, ausgehend von der LOGSE Reform an einer „Schule für alle“ gearbeitet. Es werden vergleichsweise wenige Kinder in Sondereinrichtungen beschult. Die Strategien und die dahinter liegenden Vorstellungen, wie Partizipation zu realisieren sei, waren Ende letzten Jahrhunderts in beiden Ländern deutlich verschieden. Die in der Dissertation vorgestellten Daten zeigen jedoch, dass zu wenige Kinder die Kompetenzen für eine gegenwärtige und zukünftige persönlich und wirtschaftlich erfolgreiche Lebensführung erwerben. Zentral für die Arbeit ist die von Urie Bronfenbrenner entwickelte systemökologische Theorie der menschlichen Entwicklung. Im Kern geht es bei dieser Theorie immer um die Suche, das Finden und Gestalten optimaler Bedingungen für menschliche Entwicklung. Die Fragestellung der Arbeit ist, wie in Deutschland und Spanien, aber auch wie Professionelle, interdisziplinär die Aufgabe der Integration und Partizipation im Rahmen ihrer Vorgaben bewältigen. Die Arbeit ist in zwei große Teile unterteilt. Die ersten Kapitel sind eine Sammlung von Daten, Theorien, Praxen, Diskussionen und geschichtlichen Entwicklungen, die die schulische Integration von Kindern mit Behinderungen bzw. mit schwierigen Lebenslagen, darstellt. Ab Kapitel sieben wird dann mit Methoden der qualitativen Sozialforschung nach Ressourcen und Kompetenzen, die in Spanien wie in Deutschland vorliegen bzw. entwickelt werden müssen gesucht, um auch Kindern mit Schwierigkeiten eine für sie persönlich erfolgreiche Bildung zur ermöglichen. Nach einem Einführungskapitel werden im zweiten Kapitel Theorien und Modelle der Integrationspädagogik und der an ihr beteiligten Disziplinen diskutiert. Das folgende Kapitel stellt ausgewählte Studien vor, die sich mit Lern- und Lebenslagen von Kindern befassen, denn der gesellschaftliche wie der wissenschaftliche Blick auf die Kindheit hat sich gewandelt. Ein integratives bzw. inklusives Erziehungs- und Bildungssystem wäre eine passende Antwort auf den Wandel. Das vierte Kapitel gibt einen Einblick in das bundesdeutsche Bildungssystem und stellt statistische Daten zur integrativen Beschulung in den Bundesländern vor. Das fünfte Kapitel befasst sich mit dem spanischen Bildungssystem. Das starke Engagement der Katholischen Kirche im 19. und auch noch im 20. Jahrhundert, die Francozeit und die Transición sind die Basis, auf der in den 90 ziger Jahren des letzten Jahrhunderts die, auf 10 Jahre angelegte LOGSE Reform geplant und teilweise umgesetzt wurde. Diese als top-down zu bezeichnende systemische Reform, wird mit ihren Elementen der integrativen und der kompensatorischen Erziehung dargestellt. Die Beschreibung der spanischen Reformentwicklungen endet im Jahr 2004. Der empirische Teil der Arbeit beginnt im Kapitel sechs mit Gedanken zur Qualitativen Sozialforschung. Im Kaptitel sieben wird die Gegenstandsnahe Theoriebildung vorgestellt. Das achte Kapitel befasst sich mit dem Zirkulären Dekonstruieren. Im neunten Kapitel werden die deutschen und die spanischen Interviewpartner in ihrer professionellen Expertenrolle als Grundschullehrerin, Sozialarbeiterin, Erziehungswissenschaftler, Psychologe, Unterstützungslehrerin, Physiotherapeut und Förderschullehrerin vorgestellt. Sechs Interviews fanden Ende 1999, also zu einer Zeit in der die LOGSE Reform bereits fast abgeschlossen sein sollte, statt. Das siebte Interview mit der Förderschullehrerin wurde 2001 geführt. Verständigung und Bewertung konnten aus den Kategorien der Interviews als wichtige Ressourcen für integrative schulische Arbeit erkannt werden. Im Kaptitel zehn wird der ökosystemische Ansatz vertieft dargestellt. Im elften Kapitel werden dann systematisch die Definitionen der Ökosystemischen Theorie auf die Lebensbereiche, die ein Kind betreffen, bzw. die herausgearbeiteten Kategorien angewendet. In diesen Lebensbereichen werden interdisziplinär und über die Ländergrenzen hinweg, die Kategorien diskutiert, um zu Aussagen über gute Entwicklungsbedingungen zu kommen. Die Kapitel zwölf bis vierzehn verbinden die Ergebnisse der Auswertung mit den zusammengetragenen Daten und Fakten zur Situation in Deutschland und Spanien. Als förderlich für die Integration, die auf allen Systemebenen angelegt sein sollte, werden beispielhaft folgende Kriterien beschrieben: eine integrative Grundhaltung, ein moderat konstruktivistischer Unterricht, die Anerkennung und Förderung aller Kompetenzen der Kinder, die Arbeit mit dem entwicklungsfördernden Potential, Kontinuität in den Beziehungen, Strukturen und Räumen, Bestreben nach müheloser Kommunikation. Seitenzahl: 400 Abbildungen: 55 Tabellen: 52
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Alzheimer’s Disease (AD) is the most common neurodegenerative disorder marked by progressive loss of memory and cognitive ability. The pathology of AD is characterised by the presence of amyloid plaques, intracellular neurofibrillary tangles and pronounced cell death. The aim of this thesis was to investigate pathways involved in the Aß cascade of neurodegeneration. Since novel findings indicate that already this Aß species exerts neurotoxic effects long before hyperphosphorylated tau, neurofibrillary tangles and extracellular Aß plaques appear, the investigations were accomplished with specific regard to the effects of intracellular Aß. The Swedish double mutation in the APP gene results in six- to eightfold increased Aß production of both Aß1-40 and Aß1-42 compared to human wildtype APP cells (APPwt). Data obtained from PC12 cells indicate that it is possible to specifically increase the Aß load without enhancing APP expression levels. On the basis of these findings, it seemed possible to investigate dose-dependent effects of Aß in multiple experimental designs. These assay designs were created in order to mimick different in-vivo situations that are discussed to occur in AD patients: APPsw PC12 cells exhibit low physiological concentrations of Aß within picomolar range in contrast to APPsw HEK cells, expressing Aß levels within the nanomolar range. Of note, the APPsw HEK cells showed a specific and highly significant increase in the intracellular accumulation of insoluble Aß1-42. Moreover, an intracellular accumulation of Aß and APP was found in the mitochondria of the HEK APPsw cells suggesting a direct impact on mitochondrial function on these cells. This effect might finally lead to disturbances in the energy metabolism of the cell or to increased cell death. Furthermore, baseline g- and ß-secretase activity was assessed since these enzymes represent promising therapeutic targets to slow or halt the disease process. As expected, ß-secretase activity was significantly elevated in all APPsw cell lines. This might be due to the proximity of the Swedish double mutation next to the N-terminus of the Aß sequence. Interestingly, g-secretase activity was similarly increased in PC12 APPsw cells. In addition, the toxicity of different Aß species was investigated in SY5Y and PC12 cells with regard to their effect on cellular viability mirrored by mitochondrial activity using MTT assay. Here, it turned out that not monomers, but already dimers are neurotoxic correlates. Fibrillar Aß species showed the highest toxicity. In the next step, SY5Y cells forming endogenous, dimeric APP and Aß were investigated. In accordance with previous findings, these cells showed a decreased MTT reduction potential in comparison to APPwt and control SY5Y cells reflecting a decrease of cellular viability. The impaired energy metabolism of the cells was even more drastically mirrored by reduced baseline ATP levels. In the second part of this thesis, the expression and intracellular distribution of Bcl-2 family proteins and pro-apoptotic mitochondrial factors under baseline conditions and during oxidative stress were analyzed in the APPwt and APPsw bearing cells. The most prominent finding was the reduction of expression levels of the anti-apoptotic factor Bcl-xL in the cytosolic fractions of APPwt and APPsw PC12 cells. This might indicate that a lack of anti-apoptotic factors or their altered intracellular distribution, rather than an increase in caspase-dependent pro-apoptotic factors, could be responsible for the increased vulnerability of APPwt- and APPsw-transfected PC12 cells against oxidative stress. Since total Bcl-xL expression was unaffected in PC12 cells, in contrast to APPwt and APPsw-expressing SY5Y and HEK cells revealing significantly decreased Bcl-xL expression levels. Thus, alterations in Bcl-xL distribution seem to be an early event in the disease process. Increasing Bcl-xL expression might potentially be one promising strategy for AD modification. PC12 and HEK cells bearing APPsw or APPwt were treated with the potent g-secretase inhibitor DAPT. Of note, DAPT did not only efficiently block Aß production, but additionally led to an elevation of the MTT reduction potential, reflecting an increase in cellular viability. As another disease-modifying strategy, several efforts are undertaken to ameliorate AD-relevant symptoms by the treatment with nerve growth factor (NGF). Generally, it is known that substituted pyrimidines have modest growth-promoting effects. Here, KP544, a novel substituted pyrimidine, was characterised. This drug increased MTT reduction potential in terminally differentiated and undifferentiated PC12 cells. Furthermore, treatment with KP544 led to a reduction in Aß1-40 secretion. Thus, one may conclude that the target of KP544, GSK-3ß, represents a connecting link between the two main pathological hallmarks of AD and might thus be a very promising therapeutic target for AD.
Der Erforschung der Bronzestatuetten der Frühen Neuzeit im 19. Jahrhundert wurde bisher wenig Beachtung geschenkt. Die erste umfassende stilkritische Gattungsmonographie mit dem Titel „Die Italienischen Bronzestatuetten der Renaissance“ wurde von Wilhelm von Bode (1845 - 1929) verfasst. Er veröffentlichte diese kurz nach der Eröffnung des neu gebauten Kaiser-Friedrich-Museums in Berlin 1904. Maßgeblich durch Bode geprägt, zeigte dieses Museum erstmals Bronzestatuetten der Renaissance und des Barock als eine eigenständige Skulpturengattung. Die wissenschaftshistorische Frage nach der Entstehung der stilkritischen Kleinbronzenforschung zwischen 1871 und 1904 steht daher im Kontext der Berliner Museums- und Sammlungsgeschichte, mit dem Schwerpunkt auf der Erwerbung der Kleinbronzen, deren Zuschreibung und Präsentation. Ein 1883 veröffentlichtes Konzept für ein Berliner „Renaissancemuseum“ verknüpfte mit der Sammlungspräsentation die Erwartung, der ästhetischen Selbstvergewisserung ihrer Betrachter zu dienen. Die Kunst der Renaissance, darunter auch die Bronzestatuetten, war dabei Sinnbild des modernen bürgerlichen Autonomiebestrebens. Diesem Leitbild stand die Arbeitsorganisation ihres Erforschers Wilhelm von Bode gegenüber, die seine historische Theorie und stilkritische Methode prägte. Neben dem Einfluss Jakob Burckharts und dessen „Kunstgeschichte nach Aufgaben“ geben Bodes Briefwechsel mit Theodor von Frimmel, Louis Courajod und dem Sammler Fürst Johann II. von und zu Liechtenstein Aufschluss über sein Forschungsinteresse. So fokussierte er seine Forschung auf die Statuetten des Bildhauers und Bronzemodelleurs Bertoldo di Giovannis. Hier lässt sich der Wandel von einer kulturgeschichtlichen Perspektive hin zu einer historisch-kritischen Analyse der Statuetten verfolgen. Mit der Transformation der so genannten „Kopienkritik“ aus der klassischen Archäologie und mit Hilfe der Fotografie entwickelte Wilhelm von Bode eine Methode für die stilkritische Analyse der kleinformatigen Skulpturen.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Ziel dieser Arbeit war es, die Zytotoxizität von Treosulfan und Busulfan auf Leukämiezellen von pädiatrischen Patienten mit Akuten Leukämien zu untersuchen. Im Rahmen dieser Arbeit wurden in vitro und erste in vivo Untersuchungen durchgeführt: 1. In vitro Untersuchungen Zuerst wurde eine durchflusszytometrische Methode optimiert zum Nachweis der Zytotoxizität von Treosulfan und Busulfan auf maligne Zellen pädiatrischer Patienten mit Akuten Leukämien. Mit diesem durchflusszytometrischen Assay war es möglich, die Zytotoxizität auf maligne von der auf nicht maligne Zellen zu unterscheiden. Dies war unerlässlich, da in den frisch isolierten Leukämiezellen der Patienten bis zu 55% normale Lymphozyten enthalten waren. Darüber hinaus erlaubte diese Methode die simultane Bestimmung der Zell-Apoptose in jeder Probe. An Leukämie-Zelllinien wurde dieser multiparametrische Assay anschließend mit dem MTT-Assay verglichen. Es konnte gezeigt werden, dass die Bestimmung von Zytotoxizitäten mit beiden Methoden an den Zelllinien Molt 4/8 und H9 gut korrelierte (r≥0,95). Für das Arbeiten mit Patientenmaterial wurde ausschließlich die durchflusszytometrische Methode angewendet, da in den Proben der Patienten die Differenzierung zwischen leukemischen Zellen und normalen Lymphozyten essentiell war. In den Leukämie-Zelllinien Molt4/8, H9 und K562 zeigte sich, dass Treosulfan eine stärkere Zytotoxizität zeigte als Busulfan. In die Untersuchungen frischer Leukämiezellen pädiatrischer Patienten mit Akuten Leukämien konnten 24 Proben unterschiedlicher Leukämien (cALL, reife B-ALL, reife TALL, AML) und unterschiedlicher Erkrankungszeitpunkte (bei Diagnose oder bei Rezidiv) eingeschlossen werden. In diesen Proben zeigte Treosulfan eine deutlich bessere Wirkung als Busulfan. Es wurde trotz des kleinen Patientenkollektivs deutlich, dass die T-ALL gegenüber der cALL sensitiver auf Treosulfan reagiert. Außerdem war die Zytotoxizität von Treosulfan und Busulfan gegenüber der T-ALL signifikant höher als gegenüber c-ALL (Treosulfan: p=0,02, Busulfan: p=0,03). Die IC50-Werte stiegen vom Zeitpunkt der Diagnose (Median: Treosulfan: 11,45 μM, Busulfan: 96,45 μM) über die Progression (Median: Treosulfan: 45,95 μM, Busulfan: 253,75 μM) bis zum Rezidiv (Median: Treosulfan: 153,15 μM, Busulfan: 223,3 μM) hin an, und zwar um das 8-fache bei Treosulfan und das 2,5-fache bei Busulfan. Der Unterschied der Zytotoxizität von Treosulfan auf Leukämieproben zum Zeitpunkt der Diagnose gegenüber dem Rezidiv war statistisch signifikant (p=0,02). Für Busulfan ergab sich für diese Untersuchungszeitpunkte keinen signifikanten Unterschied (p=0,13). Vergleichend zu den Ergebnissen an frisch isolierten Leukämiezellen wurde die Wirkung von Treosulfan und Busulfan auf normale Lymphozytensubpopulationen und Stammzellen untersucht. Auch hier zeigte Treosulfan eine stärkere Zytotoxizität im Vergleich zu Busulfan. Insgesamt reagierten normale Lymphozyten sensitiver auf die Alkylanzien im Vergleich zu den Leukämiezellen (Mediane IC50-Werte für Treosulfan und Busulfan auf Lymphozyten: 12,3 μM und 89,9 μM, auf Leukämieproben: 30,6 μM und 133 μM mit p=0,03 und p=0,02). In einem weiteren Experiment sollte die Interaktion von Treosulfan und Busulfan mit Fludarabin untersucht werden. Fludarabin ist ein Purin-Analogon, das in der Pädiatrie in Kombination mit Alkylanzien zur Chemo-Konditionierung eingesetzt wird. Bei der Inkubation von Fludarabin mit Treosulfan-Konzentration größer 1 μM war ein deutlicher Synergismus zu verzeichnen. Die Kombination von Fludarabin mit Busulfan ergab Antagonismus. 2. In vivo Untersuchungen Es wurde die zelluläre Immunrekonstitution bei pädiatrischen Patienten mit AML (n=9) nach allogener Knochenmarktransplantation überwacht. Ein Patient wurde mit Treosulfan konditioniert (n=1), die anderen Patienten (n=8) erhielten Busulfan zur Konditionierung. Die Rekonstitution der Leukozyten, B-Zellen, NK-Zellen und T-Helferzellen verlief in beiden Gruppen ähnlich. Ein signifikanter Unnterschied konnte für die Rekonstitution der CD3+CD8+ zytotoxischen T-Zellen gezeigt werden, die bei dem Patienten, der mit Treosulfan konditioniert wurde, signifikant niedriger war im Vergleich zur Busulfangruppe. Da bei dem Patienten, der Treosulfan erhielt, die CRP-Werte über einen längeren Zeitraum erhöht waren und Infektionen die Rekonstitution von zytotoxischen T-Zellen maßgeblich beeinflussen, bietet dies eine mögliche Erklärung für diesen Unterschied. Aussagen können jedoch nur mit einem größeren Patientenkollektiv getroffen werden.
In der vorliegenden Studie wurden 7 Dentin-Adhäsive (Adper Prompt-L-Pop, Prompt L-Pop, Xeno III, I-Bond, One-up-Bond, Prime&Bond NT, Scotchbond 1) bezüglich ihrer Zytotoxizität anhand primärer Gingivafibroblasten im Zellkulturtest untersucht. Die Studie wurde in Vorversuche und Hauptversuche unterteilt. Die Vorversuche dienten unter anderem dazu, im vornherein den pH-Wert zu bestimmen und die Dentin-Adhäsive auf ihre Viskosität in der Petrischale hin zu untersuchen. In den Hauptversuchen wurden die Eluate nach 24 und nach 48 Std. anhand der Parameter „lebende Zellen“ und „tote Zellen“ mittels des Cell Counters ausgewertet. Dem gegenüber stehen deskriptive Ergebnisse die keine statistische Relevanz haben. Die Ergebnisse bezüglich der Zytotoxizität lassen sich wie folgt zusammenfassen: • Scotchbond1, I-Bond und Prime&Bond NT weisen signifikant weniger lebende Zellen auf als die Zellkontrolle. Zueinander erwiesen sich die Materialien als nicht signifikant unterschiedlich. • Adper Prompt-L-Pop, Prompt-L-Pop, Xeno III und One-up-Bond sind bezüglich der Parameter „lebende Zellen“ und „tote Zellen“ nicht signifikant unterschiedlich zur Zellkontrolle. • Der Parameter „tote Zellen“ ergab keinerlei statistische Signifikanz. • Die qualitative Auswertung stimmt mit der quantitativen Ergebnisdarstellung überein. Unter der Limitation dieser in-vitro-Studie kann keine Empfehlung für die klinische Anwendung der Dentinadhäsive „Scotchbond 1“, „I-Bond“ und „Prime&Bond NT“ abgegeben werden.
In der vorliegenden Studie wurden fünf Dentinadhäsive (Prime & Bond, Optibond Solo, Scotchbond, Syntac Single Component und Syntac Sprint) sowie ein Gemisch aus Phosphor- und Flusssäure bezüglich ihrer Zytotoxizität anhand des Agar-Diffusionstests mit humanen Gingivafibroblasten untersucht. In den Vorversuchen wurden die zu testenden Haftvermittler auf sterilen Deckgläsern angesetzt, den gezüchteten Zellen ausgesetzt und deren Reaktion mittels Mikroskop beurteilt. Mittels dieser Vorversuche sollte untersucht werden, inwieweit überhaupt eine Zytotoxizität unter den zu testenden Mitteln vorlag oder ob es auch Mittel gab, die gar nicht toxisch auf die Zellen wirkten. In den ersten drei Hauptversuchen wurden die Dentinscheiben der Größe 500 mikro m, 400 mikro m, 300 mikro m, 200 mikro m und 100 mikro m zur Konditionierung mit dem Gemisch aus Phosphor- und Flusssäure vorbehandelt, mit dem jeweiligen Haftvermittler nach Vorschrift bedeckt und nachfolgend auf die gezüchteten Zellen aufgelegt. Der vierte Versuch diente dem direkten Vergleich zwischen dem in dieser Studie verwendeten Ätzgemisch und dem in einer vergleichbaren Studie verwendeten Ätzmittel Conditioner 36. In der vorliegenden Studie konnte eine Zytotoxizität aller untersuchten Dentinadhäsive und auch des untersuchten Gemischs aus Phosphor- und Flusssäure beobachtet werden. In der Gruppe der Dentinadhäsive schnitt das Material Optibond Solo am besten ab, gefolgt von Scotchbond, Prime & Bond und Syntac Single Component. Die stärkste Zytotoxizität wies das Material Syntac Sprint auf. Auch das Ätzmittelgemisch aus Phosphor- und Flusssäure war im Vergleich zu dem Testpartner Conditioner 36 gleich schädlich für die Gingivafibroblastenzellen.
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
... Die drei Unternehmen, aus deren Geschichte hier erzählt wird, Bayer, Hoechst und Schering, waren bis zum Ende des Zweiten Weltkrieges Chemiekonzerne, die u.a. auch Arzneimittel herstellten und verkauften. Als erste Firma hat sich Schering nach dem Zweiten Weltkrieg weitgehend auf Pharmazeutika konzentriert und sich wie Hoechst am Ende des Jahrhunderts ganz von seinen Chemieaktivitäten getrennt. Allein Bayer bietet weiterhin eine breite Palette von chemischen Produkten an. ...
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Die Dissertation mit dem Titel „Zwischen Inter- und Transnationalismus: Die Kommunikationspolitik der UNESCO nach 1989/1990“ von Sami Rabieh widmet sich dem Wandel in der UNESCO-Kommunikationspolitik seit dem Ende des Ost-West Konflikts, um zu klären, welche demokratisierenden Gestaltungspotenziale eine auf die Organisation gerichtete Kommunikationspolitik bietet und welche anderen Pfade gegebenenfalls noch darüber hinaus beschritten werden müssen. Aufbauend auf v.a. gramscianischen Theoriesträngen werden zunächst aktuelle soziale Transformationsprozesse („Globalisierung“) als Interpretationsrahmen für die Analyse der UNESCO dargestellt. Dem folgt eine historische Aufarbeitung der internationalen Kommunikationspolitik bzw. der UNESCO bis 1989/1990 sowie ein empirischer Teil, der die Entwicklung der Organisation im Politikfeld bis in die Gegenwart untersucht. Eine Synopse und Erörterung alternativer Handlungsoptionen schließen die Arbeit ab. Zusammengenommen erweist sich die Eingangsthese zur Herausbildung eines transnationalen Systems und die damit verbundene Skepsis bezüglich der Demokratisierungspotentiale inter-staatlicher Apparate als korrekt. Die politische Form und Praxis der UNESCO, in der ausschließlich Staatenvertreter zu Kommunikationsprozessen und Entscheidungen fähig und befugt sind, hat im Internetzeitalter keine Grundlage mehr und wird wegen neuer politischer Terrains sowie der Beliebtheit amerikanischer Pop- und Cyberkulturen kein „comeback“ mehr erleben. Emanzipatorische Strategien sollten sich deshalb auf eine basisdemokratische Vernetzung mittels neuer Medien konzentrieren.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
1. Analysiert werden die Daten aus dem Pädiatrischen Register für Stammzelltransplantation der Patienten, die nach einer ersten Stammzelltransplantation ein Folgerezidiv erlitten und mit einer zweiten Transplantation behandelt wurden.
2. In dem erfassten Zeitraum von 1988 bis 2007 sind im PRST 158 Patienten als Zweit-SZT nach Folgerezidiv erfasst. Letztlich konnten 106 Patienten in die Analyse aufgenommen werden.
3. Von den 106 pädiatrischen Patienten, die mit einer zweiten Transplantation wegen eines Rückfalls nach erster Transplantation bei ALL, AML und MDS behandelt wurden, haben 33 Patienten (ca. 30 %) ein ereignisfreies Langzeitüberleben erreicht. Aufgrund der vielen frühen Ereignisse fällt die Kaplan-Meier-Überlebenskurve auf errechnete 12 %. Die Nachbeobachtungszeit beträgt dabei im Mittel 27,5 Monate. Ein erneutes Rezidiv führt in der Regel zum Versterben des Patienten an einer Progression der Grunderkrankung. Lediglich 1 Patient mit ALL dieser Gruppe lebt in CR nach 3. Stammzelltransplantation. Dies entspricht einem Overall Survival von 32 %. Diese Daten sind vergleichbar mit den in der Literatur mitgeteilten.
4. Eine Analyse der in Frankfurt betreuten Patienten zeigt, dass nur 20% der Patienten mit Rezidiv nach 1.SZT zu einer 2.SZT gelangen. Auch dies entspricht den in der Literatur berichteten Ergebnissen.
5. Mädchen haben eine bessere Prognose als Jungen, insbesondere Mädchen jünger als 10 Jahre zum Zeitpunkt der Zweiten Transplantation zeigen ein ereignisfreies Überleben von 42 %.
6. Die Toxizitätsanalysen zeigen, dass die Hälfte der Ereignisse durch Transplantations-abhängige Mortalität bedingt ist. Die Verwendung eines Konditionierungsregimes mit reduzierter Intensität und erhofft reduzierter Toxizität verringert interessanterweise nicht die TRM-Rate, wohl aber die Rückfall-Rate.
7. Ein Mindestabstand von 200 Tagen zwischen den beiden Transplantationszeitpunkten führt zu einem signifikant besseren Ergebnis beim ereignisfreien Überleben, dabei kann nicht mit ausreichender Signifikanz gesagt werden, dass die Remissionsdauer nach 1. SZT in unserem Kollektiv von Bedeutung ist für das Langzeitüberleben, auch wenn ein Trend erkennbar ist. Remissionsdauern von mehr als 9 Monaten nach 1.SZT haben keinen zusätzlichen positiven Einfluß auf das Langzeitüberleben.
8. Patienten mit akuter Leukämie müssen vor einer zweiten Transplantation in einer morphologischen Remission sein, um eine realistische Chance auf Heilung zu haben.
9. Patienten, die nach 2003 einer Zweittransplantation unterzogen wurden, schneiden nicht signifikant besser ab, als die vor dem Jahr 2003 transplantierten. Dafür gibt es sicher eine Reihe von Gründen, die analysiertern Gruppen unterliegen aber einem BIAS. Unter anderem ist die Verteilung der Erkrankungen nicht gleich. Aber auch die unterschiedlich langen Remissionszeiträume deuten an, dass vor 2003 eine etwas andere Patientengruppe zweittransplantiert wurde als nach 2003. Die unterschiedlichen Mediane der Zeitintervalle zwischen den beiden Transplantationen mit einem deutlich längeren Zeitintervall in der Gruppe der nach 2003 transplantierten zeigen weiterhin an, dass insgesamt ein anderes therapeutisches Verhalten nach dem Rückfall nach erster Transplantation eingenommen wird und eine längere Intervallbehandlung in das Therapiekonzept eingeschlossen wird.
10. Die Patienten profitieren von akuter GvH bezüglich des ereignisfreien Überlebens. Höhergradige akute GvH führt aber entweder zu TRM oder mündet in ausgedehnter chronischer GvH. Auch chronische GvH bietet einen Schutz vor Rückfall. Aussagen über die Lebensqualität dieser Patienten können aus den gewonnenen Daten nicht gemacht werden.
11. Während ein Spenderwechsel bei 2. SZT offensichtlich nicht zu einem besseren Ergebnis beiträgt, zeigen Transplantationen von einem mismatch Spender und Transplantationen mit einem T-Zell-depletierten Graft ein gleichwertiges Ergebnis zu konventionellen Transplantationen. Die -allerdings sehr- kleine Gruppe der Patienten, die mit RIC konditioniert und von einem CD3/CD19 depletierten Grafteines haploidenten Familienspender transplantiert wurden, haben mit einem Overall Survival von 5/5 und einem EFS von 4/5 ein exzellentes Ergebnis. Ob dieses Behandlungskonzept zu einem besseren Outcome führen kann, muß in Zukunft aber noch an größeren Fallzahlen gezeigt werden.
12. Die in Frankfurt betreuten, lebenden Patienten zeigen durchweg eine zufriedenstellende bis gute Lebensqualität. Eine Frankfurter Patientin ist an eine ausgedehnten chronischen GvH nach langem schwerem Verlauf mit sehr eingeschränkter Lebensqualität gestorben.
13. Zweitmalignome sind ausser dem detailliert beschriebenen Frankfurter Patienten keine weiteren bisher berichtet worden. Nach den PRST- Daten ist ein Folge-Rezidiv nach erster Stammzelltransplantation bei ALL, AML und MDS therapeutisch keine ausweglose Situation und ein erneuter kurativer Behandlungswunsch der Patienten und ihrer Familien sollte unterstützt werden. Um aussagefähige Daten zu erhalten, sind allerdings prospektiv durchgeführte Studien erforderlich, die neben der Frage der optimalen SZT-Modalitäten zusätzlich auch Aussagen zur Lebensqualität treffen können müssen.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
Die in der vorliegenden Arbeit gewonnenen Erkenntnisse zur Reaktivität zweifach reduzierter 9,10-Dihydro-9,10-diboraanthracene [A]2– erweitern das Einsatzspektrum von Hauptgruppenverbindungen im Hinblick auf die Aktivierung kleiner Moleküle. Komplementär zu Übergangsmetallkomplexen und FLPs ermöglichen die Salze M2[A] (M+ = Li+, Na+, K+) die Entwicklung neuartiger Synthesestrategien. Als besondere Herausforderung gilt die Aktivierung des stabilen H2-Moleküls, dessen Bindung die Dianionen [A]2– homolytisch in einer konzertierten Reaktion spalten.
Untersuchungen zur Kinetik der H2-Addition an M2[A] stellten die Abhängigkeit dieses Reaktionsschritts vom borgebundenen Substituenten und vom Kation heraus. Eine geringe sterische Abschirmung der Boratome durch kleine borgebundene Substituenten (C≡CtBu, Me, H) begünstigt die H2-Aufnahme gegenüber großen Substituenten (pTol, Xyl, Et). Die maximale Ausbeute an M2[A-H2] wird für M+ = Li+ erst nach mehreren Tagen bei 100 °C erhalten, während einige Stunden bei nur 50 °C für die quantitative Bildung von K2[A-H2] ausreichen.
Unter den Salzen M2[A] eignet sich Li2[68] mit borgebundenen Me-Substituenten besonders gut für den Einsatz als Hydrierungskatalysator. Mit Li2[68] konnten das Imin Ph(H)C=NtBu, das terminale Alken Ph2C=CH2 und Anthracen erfolgreich im NMR-Maßstab hydriert werden (Katalysatorladung 37 mol%, THF-d8, 1 atm H2-Initialdruck, 100 °C, 16 h). Im Reaktionsautoklaven war für die Hydrierung von Ph(H)C=NtBu eine Verringerung der Katalysatorladung auf 10 mol% Li2[68] möglich (THF, 7 atm H2-Initialdruck, 100 °C, 18 h). Konkurrenzreaktionen begründen Einschränkungen in Bezug auf die Substratpalette, da M2[68] (M+ = Li+, Na+) mit elektronenarmen ungesättigten Verbindungen, die C=C-, C≡C-, C=O- oder C=N-Bindungen enthalten, [4+2]-Cycloadditionsprodukte bilden können. Die Reversibilität dieser Reaktion entscheidet, ob Li2[68] als Katalysator fungiert oder irreversibel in den Strukturen gebunden bleibt.
Vielseitiger sind die H2-Aktivierungsprodukte M2[A-H2] als H–-Donoren geeignet: Na2[68-H2] ersetzt Halogenid- durch H–-Substituenten in Bromethan, sowie in Chlorsilanen und PCl3; CO2 wird in Natriumformiat überführt. Unabhängig von der Anzahl der Chlorliganden werden die Produkte immer vollständig hydriert. Eine erneute Reduktion von 68 kann wieder Na2[68] bereitstellen, das H2 aufnimmt und Na2[68-H2] regeneriert, welches für neue H–-Abgaben zur Verfügung steht. Bei der experimentellen Umsetzung des Kreislaufs ist es wichtig, die beschriebenen Reaktionsschritte nacheinander auszuführen und jeweils nur stöchiometrische Mengen des Elektrophils zuzugeben. Bei Abweichungen vom schrittweisen Syntheseprotokoll finden formale nukleophile Substitutionen mit M2[68] statt und monoanionische Spezies entstehen, z. B. wenn Et3SiBr als Elektrophil anwesend ist.
Gegenüber CO2 zeigt Li2[68] eine hohe Reaktivität, durch die selektiv CO und [CO3]2– gebildet werden. Wie zuvor bei den H–-Transferreaktionen ermöglicht die Reduktion der Neutralverbindung 68 die Regeneration von Li2[68].
Die Dianionen [A]2– stechen unter anderen cyclischen Borverbindungen in niedrigen Oxidationsstufen heraus, da mit [A]2– nicht nur die Aktivierung von H2 oder CO2 gelang, sondern erstmalig über die Einbindung der Additionsprodukte in zum Teil katalytische Folgereaktionen berichtet werden konnte.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
Medizin gehört auch nach über 40 Jahren zu den zulassungsbeschränkten Fächern; die
Zulassung nach Leistung (Abiturnote) und Wartezeit befriedigt dabei nicht vollständig.
Die Eignung alternativer Kriterien für die Studienzulassung wurde bisher kaum
untersucht; angesichts der je nach Bundesland und Leistungsfächern heterogenen
Abituranforderungen wurden bisher auch keine Medizin-spezifischen Kriterien für die
Eignung als Zulassungskriterium untersucht, weder als Teilleistungen des Abiturs noch
als extracurriculare Aktivitäten.
Die vorliegende Studie untersucht die Bedeutung naturwissenschaftlicher Vorkenntnisse
für das Medizinstudium. Hierzu wurden das aktive Wissen in den Fächern Biologie,
Chemie, Physik und Mathematik in einer schriftlichen Klausur mit 40 offenen Fragen
an 3030 Studenten überprüft, was etwa 40% der Studienanfänger des Semesters an 14
Universitäten in Deutschland entsprach. Die Klausur wurde jeweils in den ersten vier
Wochen ihres ersten vorklinischen Semesters im Wintersemester 2004/2005
geschrieben; das Schwierigkeitsniveau der Fragen entsprach dem Lehrstoff der
Klassenstufen 10 bis 12 des Gymnasiums.
Im Durchschnitt beantworteten die Studienanfänger dabei 14,34 der 40 Fragen richtig
(36%). Aufgeteilt in die vier naturwissenschaftlichen Fächer zeigte sich, dass in den
Fächern Biologie und Mathematik jeweils über 40% der Fragen richtig beantwortet
wurden, während der Anteil der richtigen Antworten in den Fächern Chemie und Physik
mit 22% beziehungsweise 19% deutlich niedriger lag.
Die Studienanfänger in der Bundesrepublik Deutschland zeigten erhebliche
Wissenslücken auf. Im Weiteren wird in der vorliegenden Studie der Zusammenhang
zwischen den naturwissenschaftlichen Abiturnoten und -fächern der Studenten, den
naturwissenschaftlichen Kenntnissen (gemäß Klausur) und dem Studienerfolg,
gemessen an den Physikumsnoten, untersucht.
Anzustreben wäre eine bessere Vorbereitung der Studienanwärter in grundlegenden
naturwissenschaftlichen Kenntnissen, entweder in den Gymnasien oder in den ersten
vorklinischen Semestern. Dies könnte durch Medizin-spezifische Aufnahmetests vor Studienbeginn oder durch zusätzlich angebotene, freiwillige oder verpflichtende Kurse
in den naturwissenschaftlichen Fächern erfolgen, um den späteren Studienerfolg zu
gewährleisten beziehungsweise zu verbessern.
In der vorliegenden Arbeit ist es gelungen, OTS-, MPTMS-, und MPTMS/OTS gemischte SAMs aus der Lösung auf SC-1 chemisch oxidierten Siliziumwafern („SiO2“) zu präparieren. Die Adsorption der OTS oder MPTMS SAMs auf SiO2 wird von zwei konkurrierenden Reaktionen bestimmt, d.h. „Selbstaggregation” in der Ausgangslösung und “Oberflächendehydration” des SiO2 -Substrates. Die beiden Alkylsiloxan-SAMs weisen unterschiedliches Bildungsverhalten auf. Die Reifungsdauer der Ausgangslösung vor der Adsorption wirkt sich signifikant auf die Bildung der OTS SAMs aus, demgegenüber ist bei MPTMS SAMs kein Einfluß zu beobachten. Für OTS SAMs sind große Dendriten oftmals von kleinen Rundinseln umgeben, dagegen für MPTMS SAMs treten prinzipiell nur sporadisch verteilte kleine Rundinseln auf. Die Abwesenheit des Chlor-Signals in XPS-Spektren bestätigt, dass innerhalb der Adsorption die Si-Cl Bindungen der OTS-Moleküle zum größten Teil hydrolysiert werden. Doch für MPTMS SAMs ist in C 1s-Spektren ein Peak bei 286.4 eV, der der unhydrolysierten Si-OCH3 Bindung entspricht, zu beobachten. Die Hydrolysefähigkeit der Si-Cl Bindung des OTS ist erwartungsgemäß stärker als jene der Si-OCH3 Bindung des MPTMS. Diese Tendenz samt dem Unterschied in der Alkylkettenlänge wirkt sich beträchtlich auf die Bildung und die Morphologie der adsorbierten Inseln aus. Bei gleicher Konzentration (5 mM) und Reifungsdauer der Ausgangslösung bilden sich OTS SAMs viel schneller als MPTMS SAMs bei Raumtemperatur. Sie hat auch eine größere Oberflächenbedeckung wegen der seitlichen Vernetzung zur Folge. Diese Beobachtung zeigt eine prognostizierbare kinetische Schwierigkeit zur Präparation der OTS/MPTMS gemischten SAMs durch Koadsorption. Grund hierfür ist, dass die Adsorption voraussichtlich von OTS-Molekülen dominiert wird. Darüber hinaus ist Aggregation zwischen hydrolysierten OTS- und MPTMS-Molekülen nicht ausgeschlossen. Neben der Koadsorption steht in der zweistufigen Adsorption ein weiteres herkömmliches Verfahren zur Verfügung. Das Endprodukt kann nach der Reaktionsreihe der Silane mit „OTS+MPTMS“ oder „MPTMS+OTS“ gemischte SAMs bezeichnet werden. Unter Berücksichtigung der individuellen Oberflächenbedeckung und Morphologie wurde eine Rezeptur aufgestellt, in der die Adsorption jeweils höchstens 30s (für OTS) und 20 min (für MPTMS) dauert. Angesichts der vielfältigen Inselstruktur, d.h. Monoschicht, polymerisierte Bälle, und sogar Multischicht, ist eine Phasenunterscheidung nach der Dicke, z.B. mittels AFM, nicht zu erwarten. Die Existenz der lateralen unvernetzten Si-OH Gruppen der adsorbierten OTS-Inseln könnte die Präparation der homogenen OTS+MPTMS gemischten SAMs erschweren. In diesem Fall ist es fraglich, ob die hydrolysierten MPTMS-Moleküle vollständig wie geplant mit oberflächnahen OH-Gruppen von SiO2 reagieren. Mit einer umgekehrten Reaktionsreihe löst sich das Problem von selbst, da die adsorbierten MPTMS-Inseln hauptsächlich unhydrolysierte seitliche Si-OCH3 Gruppen besitzen. Die morphologische Erkennbarkeit unterstützt die Machbarkeit der Präparation der MPTMS+OTS gemischten SAMs. Die unterschiedlichen Messmodi des AFM, mit denen die Morphologie der OTS SAMs aufgenommen wurde, ergaben deutliche Unterschiede in ihrem Erscheinungsbild. Im Vergleich zum Tappingmodus sind die Grenzen der OTS-Inseln auf Kontaktmodus-Bildern nur undeutlich erkennbar. Die großen Inseln erscheinen nicht so dendritisch. Die Ursache dieser Phänomene könnte am Wassermeniskus zwischen Spitze und Probe liegen, da die Messung nicht in Flüssigkeit, sondern an Luft durchgeführt wurde. Auf LFM-Bildern sind die adsorbierten OTS-Inseln heller als unbedecktes SiO2, während die MPTMS-Inseln dunkler als SiO2 aussehen. Eine ähnliche Auswirkung der Messmodi auf die Morphologie der MPTMS SAMs wurde nicht beobachtet. Durch die Adsorption von 1-Decanthiol lässt sich die Si3N4-AFM-Spitze modifizieren. Eine solche CH3-terminierte Spitze ist hydrophob und verursacht einen gegenteiligen Helligkeitskontrast auf LFM-Bildern der adsorbierten OTS-Inseln.
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Im Rahmen dieser Arbeit wurde die Vegetation der Savannenlandschaften der Sahelzone von Burkina Faso analysiert. Diese semiaride bis aride Region, die seit einigen Jahrzehnten von Landdegradation betroffen ist, ist als Untersuchungsgebiet u.a. deshalb besonders interessant, weil sie an einem Nutzungsübergang zwischen sesshafter Landwirtschaft und traditionell nomadischer Viehwirtschaft liegt. Im Vordergrund stand bei der Vegetationsanalyse ihre Klassifikation, die Frage nach der floristischen Struktur sowie dem aktuellen Zustand der Vegetation. Zu Beginn der Feldarbeiten wurde das Untersuchungsgebiet, das einen Niederschlagsgradienten von rund 200 mm umfasst, in geomorphologische Landschaftseinheiten (Inselberge, glacis, Niederungen, mares, Dünenzüge) stratifiziert. Innerhalb dieser Einheiten erfolgte die Vegetationsaufnahme mit Hilfe pflanzensoziologischer Aufnahmen. Die Arten der Gehölz- und Krautschicht wurden getrennt behandelt. Die Vegetationsaufnahmen wurden durch Strukturprofiltransekte in der brousse tigrée und Bodenuntersuchungen ergänzt. Auf verschiedenen Skalenebenen wurden die verschiedenen Vegetationsgesellschaften detailliert beschrieben und zu Standortfaktoren in Beziehung gesetzt. Außerdem wurden Vegetationsprofile zur Veranschaulichung der räumlichen Struktur der Vegetation abgeleitet. Bei der Analyse kamen auch computergestützte Methoden und statistische Verfahren (Tests der absichernden Statistik, Berechnung verschiedener Diversitätsindices, Ordinationsverfahren, numerische Klassifikation) zum Einsatz, um die Interpretation der Vegetationsstruktur zu unterstützen. Rund 320 Gefäßpflanzensippen aus 65 Familien konnten sicher bestimmt werden. Die artenreichste Familie sind die Poaceen. Insgesamt können 20 Gesellschaften der Gehölzschicht sowie 22 Gesellschaften der Krautschicht klassifiziert werden, die zur Mehrzahl weiter in Untereinheiten gegliedert sind. Innerhalb jeder Landschaftseinheit werden die Gesellschaften der Gehölzschicht, anschließend diejenigen der Krautschicht, vorgestellt. In der Regel sind sie in ihrer Verbreitung auf jeweils eine Landschaftseinheit beschränkt. Vor allem die Gesellschaften des glacis und der Niederungen besiedeln auch Habitate in Landschaftseinheiten außerhalb ihres Schwerpunktes. Daraus werden Schlüsse zum Ausbreitungsverhalten gezogen. In keinem Fall sind Einheiten der Krautschicht und der Gehölzschicht ausschließlich miteinander kombiniert; vielmehr sind Einheiten der Krautschicht jeweils mit mehreren Einheiten der Gehölzschicht kombiniert, was ihren selbständigen Charakter betont. Zehn Einheiten der Krautschicht sind überwiegend oder völlig gehölzfrei. Eine floristische Verwandtschaft besteht vor allem zwischen den Landschaftseinheiten glacis und Dünenzügen sowie zwischen mares, Niederungen und Dünenzügen; die Inselberge unterscheiden sich deutlich. Die Gehölzvegetation der Inselberge ist in Abhängigkeit von der menschlichen Nutzung in fünf Gesellschaften gegliedert. Während die Commiphora africana-Gesellschaft für wenig beeinflusste Bereiche typisch ist, hat die Combretum micranthum-Fragmentgesellschaft ihren Verbreitungsschwerpunkt in den intensiv genutzten Bereichen. Die Acacia raddiana-Zentralgesellschaft ist an den Unterhängen vertreten. Die Krautschicht der Inselberge gliedert sich in sechs, relativ artenreiche Gesellschaften mit Untereinheiten. Sie stellen zum Teil lokale Besonderheiten dar. Das räumliche Muster der Einheiten der Brachiaria lata-Gesellschaft lässt eine Abhängigkeit von der Art der Beweidung erkennen. Die Vegetation der Sandrampen wird oftmals von Einheiten gebildet, die ihren Verbreitungsschwerpunkt auf den Dünenzügen haben. Die Gehölzvegetation des glacis ist in drei relativ artenarme Gesellschaften gegliedert, die in Abhängigkeit der Lage zum lokalen Vorfluter zoniert und auch über das Untersuchungsgebiet hinaus weit verbreitet sind. Weite Bereiche des glacis sind völlig gehölzfrei. Die häufigste Gesellschaft ist die Acacia raddiana-Zentralgesellschaft. Die Ordination der Daten unterstützt die Klassifikation und zeigt Übergänge zwischen den Einheiten sowie Beziehungen zu den Standortparametern auf. Die Krautvegetation der glacis-Flächen ist relativ einheitlich; es gibt insgesamt nur zwei Gesellschaften. Der Anteil an Ruderalarten, Arten mit Pioniercharakter und solchen, die ihren Verbreitungsschwerpunkt auf Dünenzügen haben, ist relativ hoch. Bedeutendste Einheit ist die Tribulus terrestris-Untereinheit der Schoenefeldia gracilis-Gesellschaft, die eine weite ökologische Amplitude besitzt. Vor allem zu den Krautgesellschaften der Niederungen bestehen enge floristische und räumliche Beziehungen. Die krautigen Arten des glacis haben eine weite ökologische Amplitude. Es bestehen floristische Beziehungen zu Vegetationseinheiten der Sahara. Die Vegetation der mares und Niederungen hat die höchste β-Diversität. Die Gehölzvegetation der Niederungen ist in Abhängigkeit der Überflutungsdauer und -höhe zoniert und relativ struktur- und artenreich. In Galeriewäldern kommen sudanische Gehölzarten vor. Während von Viehherden stark frequentierte mares niedrige Gehölzdeckungen aufweisen oder komplett gehölzfrei sind, ist die Gehölzdeckung an den Ufern nur schwach besuchter mares geschlossen. Dies gilt auch für die artenreiche Krautvegetation. Insgesamt ist die Gehölzvegetation der Niederungen und mares in acht Gesellschaften gegliedert; die einzelnen Einheiten zeigen Übergänge miteinander. Die Krautvegetation der Niederungen enthält ebenfalls sudanische Arten. Sie lässt sich in drei Gesellschaften gliedern, die z.T. nur ein kleines Verbreitungsgebiet haben. Einige Uferabschnitte sind stark degradiert und vegetationslos. Die oftmals röhrichtartige Krautvegetation der mares ist ebenfalls in Abhängigkeit der Überflutungshöhe gegliedert, allerdings kommen an den einzelnen mares teilweise unterschiedliche Einheiten vor. Die Melochia corchorifolia-Gesellschaft steht im Mittelpunkt der Krautvegetation der mares, während die Brachiaria mutica-Gesellschaft für die nicht oder nur wenig überfluteten Bereiche typisch ist. Die Gehölzvegetation der Dünenzüge lässt sich im Untersuchungsgebiet in neun Gesellschaften gliedern. Diese gruppieren sich in einem artenreichen Block wenig beeinflusster Bereiche und in einem relativ artenarmen Block intensiv genutzter Dünenabschnitte. Bestände, die zur Pterocarpus lucens-Gesellschaft gestellt werden, bilden auf abgelegenen Dünenzügen kleine Wäldchen. In diese Gesellschaft werden auch die Bestände der brousse tigrée eingegliedert. Es sind in der Region nur noch wenige Flächen mit intakter brousse tigrée vorhanden. Anhand von zwei Strukturprofiltransekten wird ihre floristische und räumliche Struktur mit vier Zonen veranschaulicht. Pterocarpus lucens und Combretum micranthum sind die beiden dominanten Gehölzarten. Im Untersuchungsgebiet ist die Combretum glutinosum-Zentralgesellschaft weit verbreitet. Durch zwei Ordinationsdiagramme wird der ökologische Schwerpunkt wichtiger Dünenarten aufgezeigt. Die numerische Klassifikation lässt sich gut mit der manuellen Klassifikation in Übereinstimmung bringen. Die Krautvegetation der Dünen ist in sieben Gesellschaften mit vielen, z.T. relativ artenarmen Untereinheiten gegliedert, deren ökologische Bindung aufgrund eines starken, nivellierenden Beweidungseinflusses nicht immer geklärt werden kann. Es dominieren annuelle Arten; viele der Arten kommen in anderer Artenkombination auch in der Sudanzone vor. Daneben zeigt sich eine floristische Verwandtschaft zur Sahara. Unter Bäumen wächst die Achyranthes aspera-Gesellschaft. Krauteinheiten, die in anderen Landschaftseinheiten ihren Verbreitungsschwerpunkt haben, sind auf den Dünenzügen ebenfalls vorhanden, z.B. die Enteropogon prieurii-Gesellschaft der Inselberge und die Schoenefeldia gracilis-Gesellschaft des glacis. Es ist keine floristische Differenzierung entlang des Niederschlagsgradienten erkennbar. Hirsefelder sind mit Kulturbaumparks bestanden. Die Acacia raddiana-Zentralgesellschaft gewinnt auch auf den Dünenzügen an Bedeutung. Die Ergebnisse werden in Beziehung zu den in der Literatur vorhandenen, oftmals auf formationskundlichen Kriterien beruhenden Klassifikationen in Beziehung gesetzt. Je nach verwendetem Verfahren und Distanzmaß liefert die numerische Klassifikation unterschiedliche Ergebnisse, die sich nur zum Teil mit der Klassifikation in Deckung bringen lassen. Durch die Betrachtung der aktuellen Verjüngung, aus den Ergebnissen und ihrer Diskussion werden Aussagen über die aktuelle Vegetationsdynamik abgeleitet. Aktuelle Strukturveränderungen der Vegetation sind mit einem Landnutzungswandel verbunden. In erster Linie handelt es sich um Degradation, für die Beispiele auch aus der Literatur gegeben werden. Auf den Inselbergen gehen artenreiche Bestände zurück, gleichzeitig wandern Arten von den glacis-Flächen her ein. Auf dem glacis sind einerseits eine Artenverarmung, andererseits eine Verbuschung tiefliegender Bereiche sowie eine floristische Homogenisierung vieler Flächen zu beobachten, letzteres gilt auch für die Dünenzüge. An den mares und Niederungen findet ebenfalls eine floristische Verarmung statt, sudanische Arten sterben wie auch auf den Dünenzügen aus. Klimaungunst und vor allem Überbeweidung als mögliche Ursachen für den Vegetationswandel werden diskutiert.
In der Stratosphäre finden eine Reihe von dynamischen und chemischen Prozessen statt, die u.a. den Abbau von Ozon beeinflussen. Um die langfristigen Veränderungen in der Stratosphäre untersuchen zu können müssen die Abhängigkeit dieser Prozesse von Raum und Zeit bekannt sein. In dieser Arbeit wird eine Untersuchung zur Variabilität der Stratosphäre auf der Grundlage der Varianz von Tracern, die in Form der „Equivalent Displacement Height“, kurz: EDH, dargestellt wird, vorgestellt. Die EDH ist tue mit Hilfe des lokalen vertikalen Gradienten normierte lokale Standardabweichung des Mischungsverhältnisses eines Tracers und besitzt die Dimension einer Länge. Durch die Normierung kann die Varianz verschiedener Tracer miteinander verglichen werden. Mit dem Konzept ist allerdings nur die Diagnose der Variabilität möglich und keine Quantifizierung der dafür verantwortlichen Prozesse. Für die Fragestellung werden drei Datensätze ausgewertet. Ein Datensatz ist mit Hilfe eines kryogenen Luftprobensammlers entstanden. Die Berechnungen iii dieser Arbeit zeigen, dass die zeitliche und räumliche Abdeckung dieses Datensatzes zu niedrig ist, um mit ihm eine repräsentative Aussage über die Varianz von Spurengasen in der Stratosphäre treffen zu können. Eine bessere zeitliche und räumliche Abdeckung besitzt der Datensatz des Satellitenexperimentes HA-LOE. Dieser wird dazu verwendet die monatlichen Verteilungen der mittleren EDH von CH4 und O3 in einem Höhenbereich zwischen 19 und 50 km für einen Zeitraum von 1993 bis 2000 zu berechnen. Die mittlere EDH von OH4 besitzt über den Hemisphären jeweils einen unterschiedlichen Jahresgang. Die Diskussion zeigt, dass dieser hemisphärische Unterschied auf die verschiedenen dynamischen Bedingung in der Stratosphäre über den Hemisphären zurückgeführt werden kann, vor allem auf die Existenz eines stabileren und langlebigeren Polarwirbels in der Südhemisphäre. Im Gegensatz dazu zeigt die mittlere EDH von O3 über beiden Hemisphären einen vergleichbaren Jahresgang, mit minimalen Werten der Varianz während der Sommermonate, wenn die Ausbreitung planetarer Wellen in die Stratosphäre durch die vorherrschende Ostwindzirkulation behindert wird. Dieser Jahresgang steht in Verbindung mit den chemischen und dynamischen Prozessen bzw. der Kombination, welche die Verteilung und Varianz von O3 in der Stratosphäre kontrollieren. Eine eindeutige Trennung der einzelnen Effekte ist dabei allerdings nicht möglich. Der Datensatz des Simulationsmodell KASIMA enthält die Verteilung von CH4 und O3 mit der höchsten zeitlichen und räumliche Abdeckung aller drei Datensätze. Ein Vergleich zwischen den daraus berechneten Verteilungen der mittleren EDH beider Spurengase mit den HALOE-Daten soll helfen, die Varianz welche durch das Modell simuliert wird, mit der gemessenen zu vergleichen. Für das O3 wird eine gute Übereinstimmung zwischen der modellierten und gemessenen Varianz gefunden. Diese guten Übereinstimmungen ergeben sich für CH4 nicht. Aufgrund der unterschiedlichen chemischen Eigenschaften der beiden Tracer wird aus den Ergebnissen geschlossen, dass das Modell die chemischen Prozesse besser simuliert als den atmosphärischen Transport. Mit Hilfe von drei Fallstudien werden weitere Möglichkeiten aufgezeigt. die mit dem Konzept und den Datensätze von HALOE und KASIMA noch bestehen. In der ersten Fallstudie werden anhand der Verteilungen der EDH von CH4 aus dem März 1996 und 1997 die Auswirkungen vorm zwei unterschiedlichen meteorologischen Situation diskutiert, wobei ein eindeutiger Zusammenhang festgestellt wird. In einer zweiten Fallstudie wird der Frage nachgegangen, ob die Normierung auf den vertikalen Gradienten bei der Berechnung der EDH sinnvoll ist, da horizontale Transportprozesse in der Stratosphäre dominieren. Es wird daher zum Vergleich die „Equivalent Displacement Length (EDL)“ von CH4 berechnet, bei der eine Normierung der Varianz auf den horizontalen Gradienten erfolgt. In der dritten Fallstudie wird die Verteilung der mittleren EDH von N20, welche ebenfalls mit dem Datensatz von KASIMA berechnet worden ist, mit der von CH4 verglichen.
Das Ziel dieser Arbeit war die Evaluierung der Einsatzmöglichkeiten eines mikrostrukturierten Reaktorsystems in der heterogenen Katalyse. Hierzu wurde eine Reaktion herangezogen, welche typische Problemstellungen der heterogenen Katalyse abbildet. Zu diesen Problemen gehören Temperaturkontrolle, sichere Handhabung von explosiven Gasgemischen und das Erzielen von zufriedenstellenden Selektivitäten. Die Reaktion sollte außerdem bereits gut untersucht worden und die Prozessparameter aus der Literatur bekannt sein. Aus diesem Grund wurde die Partialoxidation von Ethen zu Ethenoxid an Silberkatalysatoren gewählt. Es konnte gezeigt werden, dass die Reaktion in einem Mikrostrukturreaktorsystem sicher durchführbar ist. Vor allem wurde an einer ganzen Reihe von Beispielen veranschaulicht, dass eine herausragende Eigenschaft des Mikrostrukturreaktors seine inhärente Explosionssicherheit ist. Gasgemische, welche sich mitten im explosiven Gemischbereich befanden, konnten bei Drücken von 2 bis 20 bar und Temperaturen von 230 bis 310 °C sicher gehandhabt werden. So konnte gezeigt werden, dass der Mikrostrukturreaktor sich dazu eignet Reaktionen mit explosiven Gasgemischen durchzuführen. Die Verwendung von Mikrostrukturreaktoren in der heterogenen Katalyse befindet sich noch im Anfangsstadium. Um Probleme bei der Übertragung von Katalysatorsystemen auf ein System mit Mikrostruktur zu vermeiden, erfolgte zunächst der Einsatz von Vollsilberkatalysatoren. Die Mikrostruktur wurde deshalb aus dem katalytisch aktiven Material selbst hergestellt. Die Herstellung wurde auf drei unterschiedliche Weisen (LIGA-, Ätz- und Sägeverfahren) durchgeführt. So konnte gezeigt werden, dass eine Kostenreduzierung bei der Darstellung von Mikrostrukturen möglich ist. Der Nachteil der Nutzung von Vollsilber war, dass sich deutlich schlechtere Selektivitäten bei der Partialoxidation von Ethen ergaben. Es konnte jedoch gezeigt werden, dass mit dem Mikrostrukturreaktor die Selektivitäten für Vollsilber im Schnitt 10 % über denen für Rohrreaktorexperimenten bei gleichen Umsätzen lagen. Die effektive Wärmeabführung und die homogene Verteilung der Wärme über den Mikrostrukturreaktor scheinen eine Verbesserung der Selektivität zu erbringen. Kinetische Untersuchungen zeigten, dass sowohl durch Anheben des Partialdrucks von Ethen als auch von Sauerstoff eine Erhöhung der Reaktionsgeschwindigkeit erzielt werden kann. Dabei wurde für Ethen eine formale Reaktionsordnung bei der Bildung von Ethenoxid von 0,53 gefunden, während sie für Sauerstoff 0,78 betrug. Mit diesen Untersuchungen wurde verdeutlicht, dass ein Erhöhen des Sauerstoffpartialdrucks einen positiven Einfluss auf die Selektivität hat. So konnte durch Anheben der Sauerstoffkonzentration von 5 %, wie es in industriellen Prozessen aus Sicherheitsgründen notwendig ist, auf bis zu 95 % eine Verbesserung der Selektivität von bis zu 15 % erzielt werden. Über diesen Sachverhalt wurde zwar bereits in der Literatur (16) berichtet, jedoch erfolgten die Untersuchungen hierfür unter Hochvakuumbedingungen. Der Mikrostrukturreaktor ermöglichte einen Nachweis dieses Phänomens auch unter Hochdruckbedingungen, wie sie für industrielle Reaktoren üblich sind. Damit konnte ein in der heterogenen Katalyse bekanntes Problem, nämlich die Übertragung von Erkenntnissen aus Ultrahochvakuumexperimenten auf Hochdruckbedingungen (pressure-gap), untersucht werden. Eine wissenschaftliche Prüfung, ob dem Ergebnis die gleichen Ursachen sowohl im Ultrahochvakuum als auch bei Hochdruckbedingungen zugrunde liegen, muss noch erfolgen. Es zeigte sich aber auch, dass durch eine Verweilzeiterhöhung keine weitere Verbesserung der Raum-Zeit-Ausbeute möglich ist. Vielmehr wurde klar, dass Reaktionsgeschwindigkeit und Selektivität mit längeren Verweilzeiten abnehmen. Als Grund hierfür konnte die Bildung von elementarem Kohlenstoff an der Silberoberfläche festgestellt werden. Aufgrund der Limitierung bei der Verweilzeit wurden maximale Umsätze von 24 % erzielt. Der Einsatz von 1,2-Dichlorethan als Oxidationsinhibitor für Vollsilber wurde ebenfalls untersucht. Dabei konnte die Selektivität auf bis zu 69 % gesteigert werden. Es erfolgte jedoch eine Einbuße an Aktivität von etwa 42 %. Es ist bekannt, dass die Oberflächenmorphologie von Silberkatalysatoren unter Reaktionsbedingungen starke Veränderungen erfährt. (68) Es wurde aufgezeigt, dass dies für die Oberfläche von mikrostrukturierten Silberfolien ebenfalls festzustellen ist. Dabei wurde gleichzeitig festgestellt, dass die Katalysatoren trotz unterschiedlicher Herstellungsmethoden und den daraus resultierenden unterschiedlichen Oberflächenmorphologien vergleichbare Aktivitäten aufweisen. Industriell verwendete Katalysatoren basieren auf alpha-Aluminiumoxid als Trägermaterial. Dabei wurde bereits seit vielen Jahren an Optimierungen des Katalysators gearbeitet. Durch das Einstellen der spezifischen Oberfläche und Partikelgröße des Silbers und den Einsatz von Alkali- und Erdalkalimetallen als Promotoren werden so Katalysatoren hergestellt, welche eine Selektivität von 80 % besitzen. Die Übertragung dieser Erkenntnisse auf ein Mikrostrukturreaktorsystem kann nicht ohne weiteres vorgenommen werden. Es wurden verschiedene Darstellungsmöglichkeiten für eine alpha-Aluminiumoxidschicht in einem Mikrostrukturreaktor untersucht. Dabei zeigte sich, dass nur die direkte Darstellung von alpha- Aluminiumoxid ohne Phasenumwandlung aus anderen Modifikationen erfolgversprechend ist. Eine Darstellung der Aluminiumoxidschicht durch Sol-Gel- oder CVD-Prozesse war nicht erfolgreich, da die für die Phasenumwandlung von gamma-Aluminiumoxid nach alpha-Aluminiumoxid notwendige Temperatur von 1100 °C die Ausbildung einer Eisenoxidschicht an der Oberfläche der mikrostrukturierten Edelstahlfolien zur Folge hatte. Diese eignete sich nicht als Träger. Alternativ wurde erfolgreich der Einsatz von aluminiumhaltigen Edelstählen untersucht. Diese bilden beim Ausheizen bei 1100 °C eine alpha-Aluminiumoxidschicht an der Oberfläche aus, welche mittels Sputtern mit Silber geträgert wurde. Katalytische Untersuchungen zeigten, dass mit dem Einsatz von alpha-Aluminiumoxidträgern eine Verbesserung der Selektivität im Vergleich zu Vollsilber von 17 % erreicht werden kann. Gleichzeitig konnte anhand eines Gegenüberstellens von katalytischen Daten mit TEM-Aufnahmen der Sputterschichten festgestellt werden, dass eine geschlossene Silberschicht an der Oberfläche notwendig ist, um eine zufriedenstellende Aktivität und Selektivität zu erzielen. Während bei Schichtdicken von 1 nm noch einzelne Silberinseln an der Oberfläche zu finden sind, liegt bei einer Schichtdicke von 5 nm eine fast geschlossene Silberschicht vor. Ein Anheben der Schichtdicke ergab keine weitere Verbesserung der Aktivität oder Selektivität. Dagegen ergab der Einsatz von 1,2-Dichlorethan eine weitere Steigerung der Selektivität auf 77 %. Industriell eingesetzte Rohrbündelreaktoren erreichen im Sauerstoffverfahren eine Selektivität von 80 %. Die hier erzielten 77 % Selektivität bei vergleichbaren Umsätzen zeigt, dass der Einsatz eines Mikrostrukturreaktors für die Synthese von Ethenoxid möglich ist, vor allem unter dem Gesichtspunkt, dass Potenzial für die Optimierung von Reaktoren und die Katalysatorpräparation besteht. Die Nutzung von Reaktionsbedingungen, wie Ethen in reinem Sauerstoff, und der daraus resultierenden Verbesserung für Aktivität und Selektivität, ermöglichen Raum-Zeit-Ausbeuten, die über denen von Industriereaktoren liegen. Ob Mikrostrukturreaktoren in industriellen Prozessen jemals eingesetzt werden, hängt allein von ökonomischen Faktoren ab. Dazu müsste die Selektivität über die bestehenden 80 % angehoben werden. Zur Zeit entfallen 80 % der Produktionskosten von Ethenoxid auf den Rohstoff Ethen, so dass jeder Prozentpunkt, um den die Selektivität angehoben werden könnte, eine deutliche Kosteneinsparung mit sich brächte und darüber entschiede, ob ein neuer Prozess eingeführt wird. Hierzu wäre es auch notwendig, die Kosten für die Produktion der Mikrostrukturreaktoren pro Volumeneinheit um mehrere Größenordnungen zu reduzieren. Außerdem müssten Lösungen entwickelt werden, welche die Peripherie des Reaktors betreffen, vor allem die Heizung und die Gasversorgung. Im Rahmen dieser Arbeit sollte überprüft werden, welche Leistungsfähigkeit ein Mikrostrukturreaktorprozess im Vergleich zu einem bestehenden Prozess besitzt. Es konnte dargestellt werden, dass Raum-Zeit-Ausbeuten über denen eines Industriereaktors erzielt werden können bei vergleichbareren Selektivitäten. Außerdem konnte gezeigt werden, dass der Mikrostrukturreaktor ein geeignetes Werkzeug ist, welches helfen kann, Reaktionen unter bisher nicht einfach zugänglichen Bedingungen durchzuführen.
Fragen nach der Struktur von Sprachkompetenz sind aktuell in der pädagogisch-psychologischen Diagnostik von besonderer Bedeutung. Da sprachliche Kompetenzen als wesentlicher Bestandteil von Bildung angesehen werden, finden sie in empirischen Studien zu Schülerleistungen immer stärkere Beachtung. Neben der Feststellung von Ausprägungen der sprachlichen Kompetenzen wird die Differenzierbarkeit von Teilbereichen der Sprachkompetenz betrachtet, wenn spezifische sprachliche Phänomene getrennt beobachtet und beschrieben werden sollen. Die vorliegende Arbeit nähert sich der Frage nach der Struktur von Sprachkompetenz aus einer psychologisch-diagnostischen Perspektive. Auf der Grundlage von Daten einer deutschen Large-Scale-Studie und unter Bezug auf Theorien und Modellen der Psycholinguistik, der Entwicklungspsychologie und der psychologischen Diagnostik geht sie der Frage nach, welche Teilbereiche der Sprachkompetenz sich empirisch differenzieren lassen – wie sich also die Struktur von Sprachkompetenz aus Sicht der Diagnostik darstellen lässt. Darüber hinaus wird analysiert, ob sich spezifische Zusammenhänge zwischen einzelnen sprachlichen Teilbereichen empirisch auffinden lassen, die vor dem Hintergrund bekannter Theorien und Modelle der Struktur von Sprachkompetenz darzustellen und zu erklären sind. Schließlich wird untersucht, ob sich bestimmte Personengruppen hinsichtlich der strukturellen Zusammenhänge in ihrer Sprachkompetenz unterscheiden und inwiefern kognitive Grundfähigkeiten als Teil der Struktur von Sprachkompetenz zu betrachten sind. Bisher liegen nur wenige verallgemeinerbare, empirische Befunde zur Struktur der sprachlichen Kompetenzen deutscher Schülerinnen und Schüler vor. Dies ist vor allem darin begründet, dass die Durchführung vergleichender Studien über viele Jahrzehnte im deutschen Bildungssystem unüblich war und sich die Erfassung von Sprachkompetenz oft auf den Bereich der Defizitdiagnostik beschränkte. Dort, wo repräsentative Daten verfügbar sind, decken sie in der Regel nur einige wenige sprachliche Teilbereiche ab. Die vorliegende Arbeit beruht auf den Daten der umfassenden und differenzierten Erhebung von Sprachkompetenzen im Rahmen der Studie Deutsch Englisch Schülerleistungen International (DESI). DESI untersuchte im Schuljahr 2003/2004 die sprachlichen Leistungen von Schülerinnen und Schülern der neunten Jahrgangsstufe in Deutschland. Sie wurde von der Ständigen Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) im Jahre 2000 in Auftrag gegeben. Entsprechend der aktuellen Forschungslage zur Dimensionalität von erst- und fremdsprachlichen Kompetenzen wurden in den DESI-Tests jeweils mehrere produktive und rezeptive Kompetenzbereiche unterschieden: Sowohl im Deutschen als auch im Englischen wurden die Kompetenzen im Lesen und Schreiben erfasst, im Englischen zusätzlich im Hören und Sprechen. In beiden Sprachen wurden zudem sprachpragmatische und grammatikalische Aspekte der Sprachbewusstheit getestet, im Deutschen wurde darüber hinaus ein schriftlicher Test zur Argumentation eingesetzt. Lexikalische und orthographische Aspekte von Sprachkompetenz wurden im Deutschen in gesonderten Tests abgebildet und im Englischen als Komponenten von Lückentexten erfasst. Zusätzlich zu den insgesamt zwölf Testverfahren ergänzten Fragebögen zu Lehr-Lern-Bedingungen, Hintergrundfaktoren und motivationalen Aspekten sowohl für Schülerinnen und Schüler als auch für Lehrpersonen, Fachkollegien, Schulleitung und Eltern die Erhebung. An der Haupterhebung von DESI nahmen 10 632 Schülerinnen und Schüler aus 219 Schulen teil, darunter 40 Schulen mit bilingualem Sachfachunterricht. Diese Daten bieten eine ideale Grundlage für die Analyse der Struktur von Sprachkompetenz bei Schülerinnen und Schülern. Die Fragestellungen der vorliegen Arbeit beschäftigen sich damit, die Struktur von Sprachkompetenz innerhalb der beiden Sprachen zu beschreiben und in ein gemeinsames Modell zu integrieren. Methodisch berücksichtigt wird dabei die hierarchische Schachtelung der Daten. Dadurch wird ein theoriegeleitetes Modell der Struktur der Sprachkompetenz empirisch abgebildet. Darauf aufbauend wird analysiert, wie dieses Modell speziell auf die Mehrebenenstruktur der Daten anzupassen ist, ob also die Struktur von Sprachkompetenz auf Individualebene und auf Klassenebene für beide Sprachen getrennt und gemeinsam unter Beibehaltung des Modells für die Gesamtstichprobe dargestellt werden kann. In einem weiteren Schritt wird analysiert, ob das gefundene Modell der Struktur von Sprachkompetenz sich in spezifischen Untergruppen unterscheidet, hierzu gehören Mädchen und Jungen sowie Schülerinnen und Schüler mit unterschiedlichem Sprachhintergrund. Abschließend wird untersucht, welche Bedeutung den kognitiven Grundfähigkeiten im Gesamtmodell der Struktur von Sprachkompetenz zukommt.
Die Studie befasst sich mit Formenschatz, Sedimenten und Böden des Komadugu-Flusssystems. Neben einer grundsätzlichen Inventarisierung des bislang kaum erforschten Landschaftskomplexes lag der Schwerpunkt auf der Rekonstruktion von Systemveränderungen im Kontext des spätquartären Klimawandels. So sind die schmalen rezenten Auen teilweise in eine weitgespannte reliktische Überschwemmungsebene eingeschnitten, die möglicherweise synchron zu ehemaligen früh- bis mittelholozänen Tschadsee-Maxima bei Rückstau der Flüsse außerhalb der prominenten Bama-Beach-Ridge-Begrenzung entstand. Während die rezente Aue ein deutlich ausgeprägtes Mäandersystem aufweist, liegen in der Paläoschwemmebene komplexere fluviodeltaische Strukturen mit fließenden Übergängen der klassischen Gerinnebettmuster vor, deren häufige sprunghafte Verlagerung unter Ausräumung und Wiederverfüllung sich auch in der fluvialen Architektur des älteren Alluviums widerspiegelt. Bei Korngrößenanalysen ergab sich eine generelle Dominanz gut sortierter, feinsandiger Substrate. Darüber hinaus reflektieren die rezenten Alluvionen mit schluffigen Hochflut-, feinsandigen Uferbank- und mittel- bis grobsandigen Flussbettsedimentabfolgen sowie feinsandigen bis tonigen Gerinnefüllungen an Altarm-Standorten die fraktionierte Sedimentation in der modernen Aue. Demgegenüber sind die gradierten, feinsandigen Gerinnebett- und gerinnebettnahen Ablagerungen der Terrasse mit ihren äolisch überprägten Tops recht uniform ausgeprägt. Es zeichnen sich jedoch bestimmte Körnungsprovinzen ab, indem im Westen vor allem Feinstsande und Grobschluffe, in östlicher Richtung dann zunehmend sehr gut sortierte grobe Feinsande vertreten sind, wobei letztere aufgearbeitete lokale Dünensande repräsentieren. Der enge genetische Zusammenhang zeigt sich auch in Kornformen, Oberflächenbeschaffenheit und Schwermineralbestand der Sande, die von einer generellen Überlagerung der Transportmechanismen und polyzyklischen Aufarbeitung künden. Die Klimaxböden der östlichen Terrasse stellen offenbar luvic Arenosols/weakly leached ferruginous tropical soils dar, wenngleich aufgrund jüngerer Translokationsprozesse, ebenso wie im Westteil, lithomorphe Braunerden vorherrschen. Die Mehrzahl der durchgeführten OSL-Datierungen weist auf die Sedimentation des älteren Alluviums zur Wende des Pleistozäns zum Holozän hin. Sie markiert den geomorphologisch besonders aktiven Umbruch von ariden zu humiden Bedingungen, der im Einzugsgebiet des Komadugu spätestens gegen 12,5 ka erfolgte. Damit steht das fluviale Verhalten im ehemaligen Unterlaufbereich des Yobe-Systems in einem klaren Gegensatz zu einem für den trockenzeitlich-feuchtzeitlichen Übergang oftmals diagnostizierbaren morphodynamischen Wandel von instabilen zu stabilen Verhältnissen. Die zahlreichen wenig festgelegten Paläofließrinnen und feinsanddominierte Lithofazies als mutmaßliches Resultat einer durch Schichtfluten ausgelösten Dünenpediplanation künden von einem schwankendem, teilweise hoch energetischen Abflussverhalten, wie es am ehesten unter einem längerfristig wechselfeuchten Klimaregime vorgeherrscht haben könnte. Demgegenüber war die fluviale Formung zur Zeit der vollhumiden Maxima des Früh- und Mittelholozäns stark eingeschränkt, wobei es weder zu einer großflächigeren Sedimentation quasi-lagunaler Fazies noch zu kräftigeren Bodenbildungen kam. Die Einschneidung der rezenten Aue fand schließlich im Anschluss an das mittelholozäne Optimum bei Einsatz einer fortschreitenden Aridisierung statt.
In der vorliegenden Arbeit wurde die zelluläre Verteilung der beiden Ekto-Nukleotidasen TNAP (gewebeunspezifische Form der alkalischen Phosphatase) und NTPDase2 (Nukleosidtriphosphatdiphosphohydrolase) in den embryonalen, postnatalen und adulten neurogenen Zonen des Mäusehirns untersucht.
• Mittels enzym- und immunhistochemischer Markierungen wurde die TNAP erstmals auf den Zellen der SVZ (subventrikuläre Zone) und des RMS (rostraler Migrationsstrom) nachgewiesen.
• Immunhistochemische Doppelfärbungen von Gewebeschnitten und von akut isolierten Zellen aus der SVZ adulter und postnataler (P15) Mäuse zeigten, dass die TNAP von allen drei Typen neuronaler Vorläuferzellen (Typ B-, C- und A-Zellen) der SVZ exprimiert wird.
• Enzymatische Markierungen verschiedener Embryonal- und Postnatalstadien (ab Embryonalstadium14, E14) ergaben, dass die TNAP schon im Stadium E 14 im Bereich der Seitenventrikel exprimiert wird:
o In den frühen Embryonalstadien lag die TNAP über die gesamte Gewebedicke, von der ventrikulären bis zur pialen Oberfläche vor.
o Im Laufe der weiteren Entwicklung war eine im Kortex beginnende und sich später bis in das Striatum ausweitende Reduktion der TNAP-Aktivität zu beobachten. Mit zunehmender Reifung des Gehirns wurde die Schicht der TNAP-positiven Zellen dünner und beschränkte sich schließlich auf die SVZ.
• Die NTPDase2 war erst im Zeitraum zwischen E18 und P2 nachweisbar. Sie war im Bereich der Seitenventrikel lokalisiert und auf die an die Ventrikel angrenzenden Zellen beschränkt. Im Laufe der weiteren Entwicklung wandern die NTPDase2-positiven Zellen offensichtlich in die SVZ ein und ab P14 waren sie zu hüllartigen Strukturen angeordnet, die eine Doppelmarkierung für TNAP und NTPDase2 aufwiesen und Gruppen DCX-positiver Zellen (Typ-A Zellen, Neuroblasten) umschlossen.
• Die Markierung mit dem Neuroblastenmarker DCX war bereits zum Stadium E14 möglich. In diesem Altersstadium wurden lediglich die Zellen im Bereich des Kortex gefärbt. Im Laufe der postnatalen Entwicklung verlagerten sich die DCX-positiven Zellen ihren Schwerpunkt in den Bereich der SVZ. Bereits ab P10 lagen in der SVZ Gruppen von DCX/TNAP-doppelpositiven Zellen vor, Anzeichen für eine Konzentrierung der Neurogenese auf die SVZ.
• Die Ausschaltung des TNAP-Gens (TNAP-Knockout-Mäuse) hatte keinen offensichtlichen Einfluss auf die Ausbildung der Seitenventrikel oder die Ausbildung und zelluläre Zusammensetzung der SVZ.
• In der zweiten wesentlichen neurogenen Zone des Säugerhirns, dem Gyrus dentatus des Hippokampus, konnte die TNAP nicht nachgewiesen werden, obwohl die dortigen Vorläuferzellen NTPDase2 exprimieren.
Die vorliegenden Daten belegen erstmals eine Assoziation der TNAP mit neuronalen Vorläuferzellen und erlauben zusammen mit den Markierungen für NTPDase2 und weitere zelluläre Marker neue Einsichten in die zelluläre Entwicklung der adulten SVZ. Darüber hinaus stützen sie die Vorstellung einer Beteilung purinerger Signalwege an der Steuerung der embryonalen, postnatalen und adulten Neurogenese.
Zur Rolle der Typ-I-Interferone in der Abwehr von viralen Infektionen des zentralen Nervensystems
(2007)
Das zentrale Nervensystem (ZNS) bildet eine einzigartige Umgebung für Immunantworten, da Neuronen eine essentielle und in weiten Teilen nicht-erneuerbare Zellpopulation bilden. Virale Infektionen des ZNS und lokale anti-virale Immunantworten können zu dem Verlust von Neuronen und somit zu katastrophalen Erkrankungen führen. Unter normalen Bedingungen ist das ZNS weitgehend von der Kontrolle durch das Immunsystem ausgeschlossen. In diesem Zusammenhang wurde das ZNS oft auch als „immunprivilegiert“ bezeichnet. Dieses Konzept musste in den letzten Jahren revidiert werden, da es sich gezeigt hat, dass das ZNS nicht völlig vom Immungeschehen isoliert ist. Wichtige Mediatoren antiviraler Immunantworten sind die Typ I Interferone (IFN). Die verschiedenen Typ I IFN binden an einen gemeinsamen Rezeptor, den Typ I Interferon-rezeptor (IFNAR). Die Bedeutung von Typ I IFN Antworten für die Kontrolle viraler Infektionen wurde besonders eindrucksvoll mit IFNAR-defizienten Mäusen (IFNAR-/-) gezeigt. Nach Infektion mit dem neurotropen Vesikulären Stomatitis Virus (VSV) führt das Fehlen des IFNAR zu einer stark erhöhten Empfänglichkeit für tödlich verlaufende Infektionen. In allen Organen und besonders im ZNS von VSV infizierten IFNAR-/- Tieren fanden sich stark erhöhte Virusmengen. Um zu untersuchen, ob die VSV-Infektion des zentralen Nervensystems in IFNAR-/- Mäusen in erster Linie auf ein Versagen der peripheren Immunität oder des IFN Systems innerhalb des ZNS zurückzuführen ist, wurden mittels der Cre loxP Tech-nologie Mäuse hergestellt, die auf allen peripheren Zellen IFNAR exprimieren, während die Neuronen des ZNS IFNAR defizient sind (NesCre+/-IFNARflox/flox). Nach intranasaler VSV Infektion zeigten NesCre+/-IFNARflox/flox Mäuse zunächst keine Krankheitssymptome. Nach 5 bis 6 Tagen traten aber aufsteigende und halbseitige Lähmungen auf, so dass die infizierten Tiere verstärkt im Kreis liefen und schließlich verstarben. Im Vergleich dazu verstarben IFNAR-/- Mäuse bereits nach 2 bis 3 Tagen während normale C57BL/6 Tiere nach Infektion keine Symptome zeigten und überlebten. Der beobachtete Krankheitsverlauf lässt in den IFNAR-/- Mäuse auf ein Multiorganversagen als Todesursache schließen. 3 und 6 Tage nach Infektion konnte in den Organen von C57BL/6 Tieren kein Virus reisoliert werden. In den NesCre+/ IFNARflox/flox Tieren fanden sich zum Todeszeitpunkt nur im Gehirn Viruspar-tikel, während alle anderen Organe virusfrei waren. Die Virustiter im Hirn waren im Vergleich zu den IFNAR-/- Mäusen 10- bis 100-fach erhöht. In den anderen Organen und im Blut sind keine Viruspartikel nachweisbar. Dieser Befund deutete gemeinsam mit den beobachteten Krankheitsverläufen auf eine neuropathologische Symptomatik hin, bei der es wahrscheinlich zu einer VSV-Infektion des Hirnstammes kam. Die Analyse einzelner Regionen des ZNS zeigte in IFNAR-/- Tieren, dass 2 Tage nach Infektion in allen Regionen des ZNS signifikante Virusmengen zu finden waren. In den NesCre+/-IFNARflox/flox und den C57BL/6 Tieren fanden sich zu diesem Zeitpunkt nur im Riechhirn (Bulbus olfactorius) signifikante Virustiter. In den C57BL/6 Tieren blieb das Virus auf diese Region beschränkt und wurde dort innerhalb von 6 Tagen eliminiert. In den NesCre+/-IFNARflox/flox Tieren kam es in den folgenden Tagen jedoch zu einer fortschreitenden Infektion des ZNS, und auch das Großhirn, das Kleinhirn, der Hirn-stamm und das Rückenmark zeigten hohe Virustiter. In der Induktion peripherer Immunantworten unterschieden sich NesCre+/-IFNARflox/flox und C57BL/6 Mäuse nicht. In den WT Tieren kam es im Gegensatz zu den NesCre+/ IFNARflox/flox und IFNAR-/- Tieren innerhalb von 48 Stunden nach Infektion im Riechhirn zu einer Typ I IFN abhängigen Phosphorylierung von STAT-1, einer Komponente des IFNAR-Signaltransduktionsweges. Alles deutet darauf hin, dass die Induktion geringer Mengen Typ I IFN innerhalb des Riechhirns notwendig ist, um Im-munantworten zu aktivieren, die ein Übergreifen der Virusinfektion auf andere Regio-nen des ZNS verhindern. Eine funktionierende Immunität in der Peripherie und die Blut-Hirn-Schranke scheinen nicht ausreichend zu sein, um eine Infektion des ZNS mit VSV zu verhindern. Stattdessen muss es zur Aktivierung von IFN-abhängigen Mechanismen innerhalb des Riechhirns kommen, die ein Übergreifen der VSV Infektion auf andere Hirnregionen verhindert und zur Elimination von VSV im Riechhirn beiträgt.
Ziel der vorliegenden Arbeit war eine mehrdimensionale Analyse der Trainingsqualität von Leistungssportlern in ausdauerorientierten Sportarten aus Akteurssicht. Im Theorieteil wurden zunächst strukturelle Besonderheiten des Leistungssportsystems aus systemtheoretischer Perspektive kritisch analysiert, um einen gegenstandsadäquaten Qualitätsbegriff zu konzeptualisieren. Innerhalb dieses Theorieteiles wurden aktuelle - innerhalb von ausdauerorientierten Sportarten zumeist an der Trainingsquantität orientierte - Steuerungsmodalitäten, deren Ziele und Veränderungstendenzen aufgezeigt. Dies beinhaltetet die Darstellung gängiger kybernetischer Steuerprogramme sowie neuerer, synergetischer Ansätze bezüglich der Steuerungsmöglichkeiten sportlicher Leistungsentwicklungen. Zudem wurden handlungsleitende Rationalitäten herausgestellt, die von der sportlichen Organisation kommuniziert werden. Hierzu gehören Leitbilder, die sich in der sportlichen Förderstruktur in Form von Kaderstrukturen sowie Rahmentrainingsplänen zeigen. Neuere Studien, die solche Leitbilder und deren Effektivität empirisch überprüften, führen zu einer notwendigen Relativierung gängiger Steuerungsannahmen. Besonders betont wurde innerhalb der systemtheoretischen Ausführungen die vorherrschende dominierende Orientierung der am (Sport-)System Beteiligten an der systemspezifischen Codierung Sieg/Niederlage und die gegenwärtige Diskussion um die Rolle der Einflussnahme externer Interessen auf die Akteure (also auf die Athleten). Der Darstellung der strukturellen Aspekte im Leistungssportes folgte die Darstellung subjektorientierter Forschungsprojekte im Leistungssport. Insbesondere den Nachwuchsleistungssport betreffende Forschungsprojekte rückten hier ins Zentrum. Hierzu wurden solche Studien reflektiert, die die Lebenswelt der Athleten sowie deren Trainingsalltag untersuchten. Die Zielperspektive solcher Studien liegt im Interesse, mögliche Bildungspotentiale im Leistungssport zu explorieren. Die historisch gesehen kritische Haltung der Sportpädagogik gegenüber des Leistungssports zeigte sich bisher in der Ambivalenz der Zielorientierung leistungssportlichen Engagements, die sich aus struktureller Perspektive ausschließlich am Siegen bzw. der maximalen Leistung orientiert, aus pädagogischer Perspektive jedoch die Entfaltungsmöglichkeit des Subjektes vorsieht (insbesondere dessen Reflexionsfähigkeit sowie dessen Selbstbestimmtheit, also am Leitbild des „mündigen Athleten“ sensu LENK 1979). Diese sich zunächst konfligierend gegenüberstehenden Ansprüche begründeten die bisherige Abwehrhaltung der Sportpädagogik gegenüber dem Leistungssport. In der Analyse von Projekten, die sich mit der Entwicklung und Förderung sportlichen Talentes befassen, wurde eine weitere Facette deutlich, die in der vorliegenden Arbeit ins Zentrum gerückt wird: „Pädagogische“ Zieldimensionen wie Reflexionsfähigkeit sowie Selbstbestimmtheit des eigenen Tuns avancieren auch in leistungssportlichen Zusammenhängen als wichtige, talentbewahrende Komponente (PROHL 1996, Kapitel 2.3.1). Diese Einordnung pädagogischer Zieldimensionen ist Ausgangspunkt des hier verwendeten mehrdimensionalen Qualitätsverständnisses leistungssportlichen Trainings, welches zum einen die Ermächtigung (Empowerment) und zum anderen die Weiterentwicklung (Enhancing) der Agierenden im Prozess (im Training) vorsieht. Der in dem hier konzeptualisierten Qualitätsmodell individuelle, auf Transformation (Kapitel 2.3.3.2) abzielende Zugang zum leistungssportlichen Training, basiert nicht auf angenommenen Interventionsprogrammatik einer linearen Förderstrategie. Neben dem pädagogische Zugang weist Training dienstleistungstypische Kriterien auf wie das „uno-actu-Prinzip“ (Konsumption und Produktion fallen zeitlich zusammen) sowie die Wichtigkeit der instrumentellen Qualität (Zielerreichung) und einer subjektiven Qualität (Kundenzufriedenheit). Diese wichtigen Qualitätskriterien wurden in einer triangulativen Studie in Form eines quasi längsschnittlichen Unersuchungsdesigns analysiert. Zentrale Fragestellungen betrafen den Forschungsdefiziten entsprechend die Rolle der subjektiven Qualität (Athletenzufriedenheit) und deren Zusammenhang mit der sportlichen Leistung sowie die Rolle der o.g. pädagogischen Qualitätskriterien (Empowerment und Enhancing). Dabei sollen solche Rationalitäten, die per se bei den Athleten vorliegen und die auf den oben genannten (institutionalistischen, systemspezifischen) Annahmen beruhen, durch faktische Praktiken und deren nutzbringende bzw. hemmende Folgen für das Subjekt exploriert werden. Die Stichprobe setzte sich aus 20 Bundeskaderathleten zusammen, die ausdauerorientierte Sportarten (Triathlon, Radrennsport, Speedskaten) betreiben. Die oben beschriebenen Qualitätsdimensionen wurden zum einen durch einen Fragebogen (AZL, FESSLER 1992) erhoben, zum anderen wurden problemzentrierte Interviews mit den Athleten durchgeführt. Die im Forschungsstand aufgeführten Aspekte konnten im quantitativen Fragenblock (Fragenblock A und B, vgl. Kapitel 2.4.2) zu entsprechenden Arbeitshypothesen verdichtet werden, die explorativen, qualitativ untersuchten Fragestellungen (Fragenblock C) erhielten keinen hypothesenprüfenden Charakter. Innerhalb dieses Abschnittes wurde die Stichprobe der Kaderathleten sowie relevante statistische sowie insbesondere die qualitativen Daten betreffende Auswertungsmodalitäten dargestellt. Die nachfolgenden Ergebnisse sind hervorzuheben und erheben keinen Anspruch auf Repräsentativität: • Die Daten der Fragebogenerhebung zeigen eine hohe Athletenzufriedenheit an. Dies beinhaltet die Zufriedenheit mit dem Trainer, dem Training, den Trainingsbedingungen, der Trainingsgruppe und Wettkampfleistung. Diese hohe Zufriedenheitsstruktur ließ sich in den Interviews nicht wiederfinden. Die Ergebnisse zeigen, dass durch Fragebögen nur ein Ausschnitt erfasst werden konnte, ein für die Praxis relevanter Mehrwert entstand allerdings nur durch eine mehrperspektivische und individuelle Betrachtung (Interview) der Akteure. • In Bezug auf das Qualitätskriterium Empowerment ist zu resümieren, dass sich in der vorliegenden Studie viele Athleten „selbst“ ermächtigt haben, eine Förderung (bspw. durch Trainer) der Selbstbestimmung und der Selbstreflexion liegt in äußerst wenigen Fällen vor. • Die Mitbestimmung im Trainingsprozess sowie die Selbstbestimmung im Leistungssport werden aus Athletensicht vom Sportsystem kritisch wahrgenommen und restriktiv gehandhabt. • Viele Athleten betrieben vor ihrer derzeitigen Hauptsportart eine weitere Sportart. • In Bezug auf das Qualitätskriterium Enhancing (Weiterentwicklung) lässt sich zusammenfassen, dass die Karriereverläufe sehr heterogen sind. Eine „klassische“ Kaderkarriere (vom D- zum A-Kader) weisen nur sehr wenige Athleten auf. • In Bezug auf die instrumentelle Qualität von Training seien folgende Erkenntnisse aufgeführt: Zwar zeigte die Analyse der instrumentellen Qualitätsdimension, dass die Athleten ihre langfristige Entwicklung positiv belegen („habe meine Leistungsziele in den letzten Jahren erreicht“, vgl. Analyse in Kapitel 4.4.1). Bezogen auf die letzte Saison bewerten die Athleten ihre Leistungszielerreichung ausgewogen zustimmend und ablehnend (Kapitel 4.4.1). Die Bezeichnung „instrumentell“ trägt dem Inhalt des angenommenen „Outputs“ von Training jedoch nicht Rechnung, da „instrumentell“ im klassischen dienstleistungsorientierten Verständnis den unmittelbaren, also kurzfristigen „Output“ beschreibt. Deswegen sollte „instrumentell“ adäquat in die (pädagogische) Bezeichnung „Enhancing“ modifiziert werden. Enhancing fasst die langfristige Entwicklung als Qualitätskriterium individueller und prozessbezogener. • Bzgl. der Einordnung der Trainingsquantität in Ausdauersportarten ist folgendes Ergebnis von Relevanz: Die Daten geben keinen Hinweis darauf, dass dann, wenn mehr trainiert wird, auch die Leistungsziele oder Platzierungen eher erreicht wurden. Diese Arbeit konnte zeigen, dass die Sportpädagogik durch eine qualitative Betrachtung von leistungssportlichem Tun ihren Platz im Sinne der Praxisverantwortung und durch die Formulierung der Gegenstandspflicht (indem im Forschungsprozess auch hinterfragt wird, was Qualität überhaupt bedeutet, vgl. PROHL 2006a, 219) einnehmen kann - insbesondere dadurch, dass es den mündigen Athleten in einer pluralistischen Gesellschaft offen steht, sich leistungssportlich zu engagieren und gleichzeitig leistungssportliches Engagement als etwas begriffen wird, das Bildungspotential in sich birgt, allerdings ausschließlich unter den hier genannten Voraussetzungen der Mündigkeit.
Astrozyten sind außerordentlich vielseitige Zellen, die im Gefüge des zentralen Nervensystems wichtige Rollen in der synaptischen Signalübertragung, im Neurotransmitterstoffwechsel sowie unter anderem in der Regulation der Energiesubstrataufnahme und der lokalen Durchblutung spielen. Die genannten Prozesse weisen eine ausgeprägte Abhängigkeit von lokal verfügbaren Energieäquivalenten auf. Astrozyten können als Reaktion auf verstärkte, umliegende synaptische Aktivität nicht nur anaerobe Stoffwechselwege wie z.B. Glykolyse hochregulieren, sondern weisen auch eine enorme oxidative Verstoffwechselungskapazität auf. Die Mechanismen zur Regulation des oxidativen Stoffwechsels sind z.B. in Hepatozyten oder Muskelzellen genauer beschrieben, wie vieles andere jedoch in Glia untererforscht. Einer der Signalwege zur Aktivierung des obligat aeroben Citratzyklus über das Schlüsselenzym Pyruvatdehydrogenase-Komplex (PDC) führt in Hepatozyten über die Proteinkinase Cδ (PKCδ). Diese bewerkstelligt die Aktivierung der PDC über eine Dephosphorylierung der Pyruvatdehydrogenase (PDH) durch die PDH-Phosphatase 1 (PDP1).
Die selbst in peripheren Astrozytenforsätzen zahlreich vorhandenen Mitochondrien sind bislang in ihrer Funktion und Regulation nur unzureichend untersucht worden. Daher stellte sich die Frage, ob ein solcher PKCδ-vermittelter Signalweg auch in Astrozyten (über die Aktivierung der PDH) zur Aktivierung des mitochondrialen Stoffwechsels führen könnte, insbesondere um auf einen höheren Energiebedarf reagieren zu können.
Nach zahlreichen Versuchen zum Nachweis des Vorliegens der beteiligten Enzyme in der postulierten Signalkaskade wurden primäre Astrozyten mit Glutamat stimuliert, wodurch eine erhöhte synaptische Aktivität in unmittelbarer Umgebung simuliert wurde. Mithilfe von anti-PKCδ-, anti-PDC- und phosphospezifischen anti-phospho-PDC-Antikörpern sowie der Nutzung Objekt-orientierter Bildverarbeitungsmethoden konnte eine Glutamat-induzierte, mitochondriale Translokation der PKCδ mit nachfolgender Dephosphorylierung des PDC (und damit dessen Aktivierung) gezeigt werden. Beide Prozesse, PKCδ-Translokation und PDH-Dephosphorylierung, werden durch den metabotropen Glutamatrezeptor 5 (mGluR5) vermittelt, wie sich durch dessen pharmakologische Inhibition zeigen lässt. Die mitochondriale Translokation der PKCδ und ihre Kinaseaktivität tragen dabei maßgeblich zur Aktivierung des PDC bei, sodass durch das Einwirken von Glutamat eine lokale Modulation des glialen oxidativen Stoffwechsels und der damit verbundenen Produktion von Adenosintriphosphat (ATP) ermöglicht wird. Da Astrozyten (v.a. mit ihren feinen peripheren Fortsätzen) besonders in der Nähe von Synapsen für die Funktionalität von Neuronen essentielle, ATP-verbrauchende Prozesse wie z.B. Glutamattransport aufrechterhalten müssen, ist eine solche Regulation durch Glutamat selbst als Indikator vermehrter synaptischer Aktivität naheliegend. Dabei scheint Glutamat in dualer Funktion sowohl signalgebend die Aktivität des Citratzyklus zu beeinflussen als auch nach Aufnahme in die Zelle selbst als Substrat zum anaplerotischen Einschleusen in den Citratzyklus zur Verfügung zu stehen. Mithilfe von luminometrischen ATP-Assays sowie mGluR- und isoformspezifischen PKC-Inhibitoren konnte gezeigt werden, dass einem durch Glutamat verursachten Abfall der intrazellulären ATP-Spiegel (aufgrund der damit einhergehenden Mehrbelastung der Zelle für Transportprozesse und z.B. Ionenhomöostase) durch die mGluR5/PKCδ-vermittelte Aktivierung der PDH entgegengewirkt werden könnte.
In Zusammenschau könnte der mGluR5/PKCδ/PDH-vermittelte Signalweg gewissermaßen eine Bereitschaft bieten, um für gliale Stoffwechselprozesse die Deckung des Energiebedarfs in Astrozytenfortsätzen bei Aktivität angrenzender Synapsen (im Rahmen des Modells der dreiteiligen Synapse) zu ermöglichen. Eine mögliche pathophysiologische Rolle dieses Mechanismus bei zahlreichen neurodegenerativen Erkrankungen (bei denen häufig ein gestörter Energiestoffwechsel und/oder gliale Dysfunktion vermutet wird) müsste in weiterführenden Studien untersucht werden.
The formation of aliphatic α-amino acids by X-ray induced carboxylation of simple amines or amination of simple carboxylic acids is not favored over the formation of other amino acids. The new carboxylic and amino groups are more or less distributed statistically over the carbon atoms of the starting material. On radiationchemical formation of aliphatic hydrocarbons over C3, therefore, an increasing amount of unusual amino acids is produced. The results are influenced by various parameters such as temperature, pH, concentration, linear energy transfer and total dosis of radiation applied. Also peptides can be formed radiationchemically. However, the formation of greater molecules by radiationchemical processes under the conditions of a primitive earth seems to have only a low probability. The reaction mechanisms of radiationchemical carboxylation and amination are discussed.
Grundproblematik und Zielstellung: Masern- und Mumpsinfektionen sind als typische Kinderkrankheiten bekannt, die in der Regel komplikationslos verlaufen und eine lebenslange Immunität hinterlassen. Es gibt jedoch, vor allem bei der Erkrankung im Erwachsenenalter oder von kleinen Kindern und immungeschwächten Personen, auch schwerwiegendere Verläufe. Diese bringen häufiger Komplikationen (Masernpneumonie mit einer Häufigkeit von 1:1000, sowie das Enzephalitisrisiko) mit sich, können bleibende Schäden verursachen oder führen selten sogar zum Tod. Aus diesem Grund ist seit 1973 eine Impfung gegen Masern sowie seit 1976 eine Impfung gegen Mumps (in Kombination mit Röteln als MMR seit 1980) öffentlich empfohlen. Diese Ausarbeitung soll nun den Verlauf der Immunitätslage der Bevölkerung in den Jahren 2001 bis 2005 darlegen und das Vorhandensein von etwaigen Immunitätslücken bezüglich dieser Krankheiten untersuchen. Methodik: Zur Bestimmung der Immunität wurden Serumproben ausgewertet, die am Institut für Medizinische Virologie des Universitätsklinikum Frankfurt am Main vom 1. Januar 2001 bis zum 31. Dezember 2005 auf Antikörper gegen Masern (n = 3.405) und Mumps (n = 2.875) untersucht wurden. Bei der Bestimmung der Seroprävalenzen wurde nach Altersgruppe und Geschlecht differenziert. Ergebnisse: Sowohl bei Masern als auch bei Mumps sind bei tendenziell abnehmender Immunität zum Teil erhebliche Immunitätslücken zu finden. Die masernspezifischen Antikörper stiegen zunächst bis zum Jahr 2003 auf 95,7 % Seropositive an, fielen jedoch bis 2005 stetig wieder auf 75,2 % ab. Die immunitätanzeigenden Antikörper gegen Mumps erreichten in keinem der Jahre Werte über 60 %. Im Bezug auf das Geschlecht wiesen in der Regel die Frauen höhere Immunitätsraten auf als die Männer. Im Vergleich der Altersgruppen zeichneten sich bei beiden Krankheiten deutliche Immunitätslücken im Kindesalter sowie bei den Jugendlichen und im jungen Erwachsenenalter ab. Bei den Masern waren nahezu kontinuierlich über den gesamten Untersuchungszeitraum Immunitätslücken bei den Altersgruppen der 1 bis 4 Jährigen und der 15 bis 19 Jährigen erkennbar, die zwischen 20 und 50 % lagen und von 2001 bis 2005 zunahmen. Die Immunität im Erwachsenenalter war grundsätzlich höher als im Kindesalter, zeigte jedoch ebenfalls über die Jahre fallende Tendenzen und nahm 2005 durchschnittliche Werte von knapp 90 % an. Ab dem 60. Lebensjahr sank der Anteil der Seropositiven jedoch wieder auf im Mittel 75 % ab. Bei Mumps lagen die Immunitätsraten im gesamten Kindesalter kaum höher als 70 %, 2005 sogar unter 50 %. Im jungen Erwachsenenalter stieg die Anzahl der Seropositiven dann zögerlich von Werten um die 60 % bei den 20 bis 29 Jährigen auf 80 bis 90 % bei den 40 bis 59 Jährigen an. Ab dem 60. Lebensjahr nahm der Anteil der Seronegativen ähnlich wie bei den Masern zu. Folgerungen: Die vorliegende Arbeit zeigt, dass weiterhin Immunitäts- und Impflücken bei Masern und Mumps bestehen und sich diese sogar bis zum Jahr 2005 in ihrer Größe ausgedehnt haben. Vielmehr als zuvor weisen nun auch höhere Altersgruppen größere Immunitätsdefizite auf. Folge hiervon sind die steigenden Erkrankungszahlen im Erwachsenenalter und die dadurch bedingte Erhöhung der Komplikationsraten im Krankheitsfall. Es gilt also, auch in Anbetracht des von der WHO gesetzten Ziels der Maserneradikation, verstärktes Augenmerk auf den Erhalt und den Ausbau der Populationsimmunität bei Masern und Mumps zu legen. Um weitere Ausbrüche dieser Krankheiten zu verhindern, muss das Impfverhalten in der Bevölkerung dringend verbessert werden. Ziel ist es hierbei, Impfraten von mindestens 95 % für die erste Applikation zu erreichen.
Eine in der Forschung häufig gestellte Frage ist, welche schädlichen Auswirkungen Ärger und vor allem Ärgerausdruck haben kann. Bei Ärgerausdruck wird dabei typischerweise in nach innen gerichteten (anger-in) und nach außen gerichteten Ärger (anger-out) unterschieden. Hinsichtlich der gesundheitlichen Auswirkungen gibt es Hinweise dafür, dass beide typischen Ärgerausdrucksformen - sowohl nach innen als auch nach außen gerichteter Ärger - mit Risiken für das kardiovaskuläre System einhergehen. Allerdings ist die Vorhersagekraft einzelner Variablen nur sehr gering, so dass die Kombination von Variablen vielversprechender wirkt. Ein aktuell diskutiertes Risikocluster für koronare Herzkrankheiten ist das Typ D-Konstrukt. In Studie 1 wurden die Zusammenhänge von Typ D und Ärger und Ärgerausdruck in einer klinischen sowie einer nichtklinischen Stichprobe mit Hilfe von Fragebögen überprüft. In beiden Teilstichproben wies Typ D Beziehungen mit Ärger und Ärgerunterdrückung sowie offenem Ärgerausdruck auf. Ärger und Ärgerausdruck scheinen also auch im Typ D-Konzept eine wichtige Rolle zu spielen. Außer Belegen für gesundheitliche Auswirkungen von Ärgerausdruck wurden in jüngerer Zeit auch Hinweise auf Einflüsse auf Leistungsaspekte gefunden. Forschung aus dem Bereich der Emotionsregulation wies darauf hin, dass respondente Emotionsregulation, d.h. die Regulierung des emotionalen Ausdrucks ohne Änderung der erlebten Emotion, eine negative Wirkung auf die Bewältigung von kognitiven Aufgaben haben kann. In Studie 2 und Studie 3 wurde untersucht, ob sich auch für die respondente Regulierung des Ärgerausdrucks ein Effekt auf Leistungsvariablen feststellen lässt. Es wurde davon ausgegangen, dass sich ein inkongruenter Ärgerausdruck, also ein Ausdruck, der mit dem erlebten Ärger nicht übereinstimmt, leistungsreduzierend auswirkt. Ärger wurde mittels Provokation eines Konföderierten induziert. Der Ärgerausdruck wurde durch die Instruktion manipuliert, während einer der kognitiven Aufgabe zusätzlich eine bestimmte Emotion (ärgerlich oder neutral) darzustellen. Im Sinne der Annahme ließen sich nach inkongruentem Ärgerausdruck Defizite in der freien Erinnerung und im Zahlenverbindungstest finden. Die durchgeführten Studien sprechen dafür, dass Ärgerausdruck sowohl nach außen als auch nach innen gerichtet schädliche für Gesundheit und Leistung sein kann, wenn er übertrieben oder mit dem eigenen Erleben inkongruent ist.
Die posturale Instabilität wird bei Morbus Parkinson neben Rigor, Tremor und Bradykinese als viertes Kardinalsymptom angeführt (GERLACH et al. 2003). Diese Störung der Gleichgewichtskontrolle führt im Vergleich zu gleichaltrigen Personen ohne neurologische Erkrankung zu einem erhöhten Sturzrisiko und zu Einschränkungen in der Mobilität (WOOD et al. 2002). JANKOVIC et al. (1990) beschreiben eine schlechtere Prognose für den allgemeinen Krankheitsverlauf, wenn eine markante posturale Instabilität vorliegt. Die posturale Instabilität gehört daher zu den Hauptfaktoren, die die Lebensqualität der Patienten beeinträchtigen (COMELLA et al. 1995, WADE et al. 2003, SCHRAG et al. 2000). Im Klinikalltag wird die posturale Instabilität nach wie vor mit Verfahren erfasst, denen es an normativen Daten mangelt und die nur unzureichend zu standardisieren sind, z. B. der so genannte Retropulsionstest (BLOEM et al. 1998 und MARCHESE et al. 2003). Nach ROCCHI et al. (2002) zeigt dieser Test nur eine schwache Sensitivität für die Erfassung von posturalen Störungen. Daraus abgeleitet lautete das erste Untersuchungsziel der vorliegenden Arbeit: - Evaluierung eines biomechanischen Diagnoseverfahrens, das die Gleichgewichtsregulation bei Morbus Parkinson unter dynamischen Bedingungen erfasst und auch im Klinikalltag eingesetzt werden kann. Zum Einfluss von Vibrationen und mechanischen Ganzkörperschwingungen liegen inzwischen zahlreiche Studien vor, die eine stimulierende Wirkung auf reflektorische Kontraktionsabläufe beschreiben (vgl. zur Übersicht HAAS et al. 2004a); es existieren dagegen kaum Ergebnisse zu den Effekten mechanischer Ganzkörperschwingungen in der Trainingstherapie. Das zweite Untersuchungsziel lautete dementsprechend: - Evaluation einer neuen Trainingsmaßnahme mittels randomisierter mechanischer Ganzkörperschwingungen zur Therapie der posturalen Instabilität bei Morbus Parkinson. An der Untersuchung nahmen 52 Patienten mit der Diagnose idiopathisches Parkinson-Syndrom teil, die zur Zeit der Studie in der Parkinsonklinik in Bad Nauheim therapiert wurden. Die Zuordnung der Probanden erfolgte randomisiert in eine Experimental- und in eine Kontrollgruppe. Die sensomotorische Gleichgewichtsregulation wurde in drei standardisierten Testbedingungen erfasst. In zwei Tests wurde die posturale Stabilität in einer parallelen Fußstellung und in einer Schrittstellung überprüft (die Messdauer betrug jeweils 32 Sekunden pro Versuch). In einem weiteren Test wurde ein posturaler Reflex auf einen standardisierten Störreiz evaluiert. Die kinematischen Messungen erfolgten auf einer federgelagerten, zwei-dimensional leicht auslenkbaren Standfläche. Es wurden in jeder Testbedingung drei Versuche vor dem Treatment bzw. der Pause für die Kontrollgruppe (Pre-Tests) und drei im Anschluss (Post- Tests) durchgeführt. Das Studiendesign fokussierte somit die Erfassung von adhoc Effekten und nicht von Langzeitadaptationen. Zwei Beschleunigungsaufnehmer zeichneten die Bewegungen der Standfläche auf, wobei der erste die Beschleunigungen der Plattform in Richtung anteriorposterior (ant-post) und der zweite in Richtung medial-lateral (med-lat) erfasste. Zur Quantifizierung der posturalen Stabilität wurden die Auslenkungen der Standfläche bestimmt. Beim posturalen Reflex galt die initiale Dämpfung der Standflächenschwingungen, die mit Hilfe des Abklingkoeffizienten bestimmt wurde, als Auswertungsparameter. Zudem wurde die elektromyographische Muskelaktivität mit bipolaren Oberflächenelektroden an den folgenden antagonistisch wirksamen Muskeln des rechten Unterschenkels erfasst: - M. Tibialis anterior - M. Gastrocnemius (pars lateralis) Zur Quantifizierung der elektromyographischen Aktivität wurde das Integral des gleichgerichteten EMGs berechnet. Beim posturalen Reflex wurde zusätzlich die Reaktionszeit des M. Tibialis bestimmt, d. h. die Verzögerung der muskulären Antwort auf den mechanischen Störreiz. Das Treatment bestand aus mechanischen Ganzkörperschwingungen, die das medizinische Trainingsgerät SRT-medical® (Firma Human mobility, Frankfurt) mit einer gewissen Zufallsgenerierung produziert. Die Vibrationen erfolgen nicht gleichmäßig bzw. sinusförmig, sondern variieren permanent um eine eingestellte Frequenz (+/- 1Hz). Die Schwingungscharakteristik beruht auf dem Phänomen der stochastic resonance. Das Treatment bestand aus fünf Serien à eine Minute mit einer Frequenz von 5-6Hz. Die Hauptergebnisse der vorliegenden Studie sind - die Bestätigung, dass mit der vorgestellten dynamischen Messung der Gleichgewichtsregulation und den hierfür ausgewählten Standpositionen die posturale Stabilität bei Parkinson-Patienten quantitativ und reliabel erfasst werden kann. Diese Ergebnisse korrelieren nicht mit den klinischen Daten des Retropulsionstests. Ferner konnte in einem weiteren Teil der Untersuchung aufgezeigt werden, dass - das Treatment der randomisierten mechanischen Ganzkörperschwingungen die Gleichgewichtskontrolle sowohl bezüglich der posturalen Stabilität als auch hinsichtlich des posturalen Reflexes spontan verbessern kann. In der Überprüfung der posturalen Stabilität ist der Nachweis dieses Effektes aber abhängig von der eingesetzten Messbedingung bzw. von der Standposition. Die kinematischen Ergebnisse konnten allerdings statistisch nicht mit den elektromyographischen bestätigt werden. Die analysierten Effekte werden in der Diskussion mit folgenden Erklärungsansätzen interpretiert: - eine Modifizierung der neuromuskulären Koordination - eine Reduktion des Parkinson-typischen Rigors - eine mögliche Modifikationen der Regulation auf kortikaler und subkortikaler Ebene und - eine Verschiebung der selektiven Aufmerksamkeit auf die Anforderungssituation bzw. eine optimierte Informationsselektion. Ferner wird eine Verbesserung der Propriozeption als Treatmenteffekt ausgeschlossen. Einen besonderen Stellenwert erhalten die aufgezeigten Treatmenteffekte, wenn man berücksichtigt, dass die herkömmliche Medikation bei Morbus Parkinson zwar eine wirkungsvolle Therapie hinsichtlich der meisten Symptomausprägungen bietet, aber nach wie vor nicht zur Verbesserung der posturalen Instabilität beiträgt bzw. hier sogar einen negativen Einfluss ausüben kann (KLAWANS 1986, KOLLER et al. 1990, MARSDEN und OBESO 1994, BLOEM et al. 1996, FRANK et al. 2000, JANKOVIC 2002, GUTTMAN et al. 2003, ROBERTS-WARRIOR et al. 2000, BRONTE-STEWART et al. 2002). Basierend auf den Ergebnissen dieser Studie kann das Treatment als zusätzliches Element in der Therapie von Morbus Parkinson zum Einsatz kommen, wobei es nicht als Alternative, sondern als Ergänzung zu den herkömmlichen trainings- und physiotherapeutischen Behandlungsstrategien zu sehen ist.
Die vorliegende Arbeit ist das Extrakt umfangreicher Untersuchungen an ausgewählten organischen und metallorganischen Verbindungen im Hinblick auf ihre Polymorphie. Nicht nur die praktischen Arbeiten, wie Synthesen, Polymorphie-Screenings (nach eigens entwickeltem Vorgehen), die chemisch-physikalischen Charakterisierungen neuer polymorpher Formen, sondern auch die Kristallstrukturbestimmungen aus Röntgenbeugungsdaten wurden durchgeführt. Im Fokus der Untersuchungen standen Pigmentvorprodukte, Pigmente, pharmazeutische Wirkstoffe und weitere organische und metallorganische Verbindungen.
Ein Auszug zu Pigmentvorprodukten bilden 2-Ammoniobenzolsulfonate, welche klassische Vorprodukte verlackter Hydrazonpigmente sind. Die bislang unbekannte tautomere Form und Kristallstruktur der CLT-Säure als Zwitterion konnte erfolgreich aus dem Zusammenspiel von IR-, Festkörper-NMR-Spektroskopie und Röntgen-Pulverdiffraktometrie ermittelt werden [1]. Mit Hilfe eines Polymorphie-Screenings konnten nicht nur zwei neue Pseudopolymorphe, sondern auch das Ansolvat der CLT-Säure selbst kristallisiert und ihre Strukturen aus Röntgen-Einkristalldaten bestimmt werden. Hierbei konnte das, aufgrund der Strukturbestimmung aus Röntgen-Pulverdaten proklamierten Tautomer der CLT-Säure verifiziert werden [2]. Mit Hilfe thermischer und röntgenographischer Untersuchungen an drei Derivaten der CLT-Säure, konnte der Einfluss des Substitutionsmusters (Chlor- und Methylsubstituenten) auf die Kristallpackung aufgezeigt werden [3]. Mit Hilfe eines Polymorphie-Screenings an der Iso-CLT-Säure konnten Reaktionen der zum Polymorphie-Screening eingesetzten Lösungsmittel und der Iso-CLT-Säure beobachtet und mittels thermischer und röntgenographischer Ergebnisse aufgeklärt werden. In zwei Fällen konnte eine Deprotonierung und im dritten Fall eine Desulfonierung beobachtet werden. Durch Erwärmen der deprotonierten und desulfonierten Verbindung(en) ist die Rückgewinnung der Iso-CLT-Säure möglich [4]. Ein Polymorphie-Screening an Pigment Red 53 lieferte vierundzwanzig neue Phasen, welche identifiziert und charakterisiert werden konnten. Ferner konnten von neun Phasen die Kristallstrukturen bestimmt werden (acht aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten). Mit Hilfe dieser konnte ein Teil der Funktionalisierung von Lösungsmittelmolekülen in Pigment Red 53 aufgedeckt werden. Diverse Beziehungen pseudopolymorpher Formen zueinander konnten auf Basis der gewonnenen Erkenntnisse bestimmt werden [5]. Mit Hilfe der Ergebnisse aus den Untersuchungen zu Pigment Red 53 konnte mittels Modifizierung der bekannten Syntheseroute zu Pigment Red 53:2 die bekannte α-Phase erhalten werden. Weiterhin konnten neben zehn bekannten weitere fünfzehn neue Polymorphe identifiziert und weitestgehend charakterisiert werden. Die Kristallstrukturen von fünf bekannten und zwei neuen Phasen (sechs aus Röntgen-Einkristall- und eine aus Röntgen-Pulverdaten [6]) konnten bestimmt werden. Anhand der Ergebnisse aus den chemisch-physikalischen Charakterisierungen konnten Einzelbeziehungen zwischen den Phasen beobachtet werden. Die eigene Synthese von Pigment Red 57:1 resultierte in der bereits bekannten α-Phase. Ein Polymorphie-Screening an der α-Phase lieferte neben der bereits bekannten β-Phase elf neue Modifikationen. Schließlich konnte mit Hilfe der gesammelten Daten zur α-, β- und γ-Phase ein Zusammenhang zwischen De-/Rehydratation und dem damit einhergehenden Farbwechsel hergestellt und nachgewiesen werden [7]. Die bislang unbekannte Protonierung und Kristallstruktur von Nimustin-Hydrochlorid konnten erfolg-reich aus der Symbiose von Festkörper-NMR und Röntgen-Pulverdiffraktometrie des Handelsproduktes ermittelt werden [8]. Ebenso konnte die bislang unbekannte Kristallstruktur von 5′-Deoxy-5-fluorouridin konnte erfolgreich aus Röntgen-Pulverdaten des Handelsproduktes bestimmt werden [9]. Nach einem umfangreichen Polymorphie-Screening gelang es, Einkristalle von Tizanidin-Hydrochlorid zu erhalten und dessen Struktur aus Röntgen-Einkristalldaten zu bestimmen. Die bislang angenommene Tautomerie von Tizanidin im Festkörper und flüssiger Phase konnte mittels Röntgen-Einkristalldiffraktometrie und 1H-NMR korrigiert werden [10]. Während thermischer Untersuchungen wurden zwei bisher nicht beschriebene Polymorphe (ein Hochtemperatur- und ein Raumtemperaturpolymorph) gefunden. Schließlich konnte die Kristall-struktur des zweiten bei Raumtemperatur stabilen Polymorphs aus Röntgen-Pulverdaten bestimmt werden.
Es konnte die Kristallstruktur von 4,5,9,10-Tetramethoxypyren [11], eines neuen 2:1 Co-Kristalls aus Chinolin und Fumarsäure [12] und einer biradikalen Azoverbindung [13] aus Röntgen-Pulverdaten bestimmt werden. Neben diesen Verbindungen konnten aus analytischen und röntgenographischen Untersuchungen an ausgewählten Stereoisomeren von Inositol dreizehn neue Phasen erhalten werden. Zudem konnten mehrere Schmelzpunkte mittels DSC-Messungen korrigiert oder als Phasenübergänge oder Zersetzungs-punkte identifiziert werden. Acht Strukturen geordneter Phasen konnten aus Röntgen-Pulverdaten bestimmt werden. Zusätzlich konnten fünf der dreizehn Phasen als Rotatorphasen identifiziert und deren Elementarzelle ermittelt werden [14]. Auf Basis einer neuen Syntheseroute konnten ein Cobalt(II)- und ein Zink(II)-fumarat-Anhydrat, welche im Vergleich zu den bisher bekannten Hydraten besser wasser-löslich sind, erhalten werden. Diese Anhydrate konnten zur Kristallisation eingesetzt werden und lieferten alle bisher bekannten und zusätzlich drei neue Kristallphasen (zwei neue Cobalt(II)-fumarat-Hydrate und ein neues Zink(II)-fumarat-Hydrat). Die Kristallstrukturen der drei neuen Kristallphasen konnten aus Röntgen-Einkristalldaten bestimmt werden [15 und 16].
[1] S. L. Bekö, S. D. Thoms, J. Brüning, E. Alig, J. van de Streek, A. Lakatos, C. Glaubitz & M. U. Schmidt (2010), Z. Kristallogr. 225, 382–387; [2] S. L. Bekö, J. W. Bats & M. U. Schmidt (2012), Acta Cryst. C 68, o45–o50; [3] S. L. Bekö, C. Czech, M. A. Neumann & M. U. Schmidt. "Doubly substituted 2-ammonio-benzenesulfonates: Substituent influence on the packing pattern", eingereicht; [4] S. L. Bekö, J. W. Bats, E. Alig & M. U. Schmidt (2013), J. Chem. Cryst. 43, 655–663; [5] S. L. Bekö, E. Alig, J. W. Bats, M. Bolte & M. U. Schmidt. "Polymorphism of C.I. Pigment Red 53", eingereicht; [6] T. Gorelik, M. U. Schmidt, J. Brüning, S. Bekö & U. Kolb (2009), Cryst. Growth Des. 9, 3898–3903; [7] S. L. Bekö, S. M. Hammer & M. U. Schmidt (2012), Angew. Chem. Int. Ed. 51, 4735–4738 und Angew. Chem. 124, 4814–4818; [8] S. L. Bekö, D. Urmann, A. Lakatos, C. Glaubitz & M. U. Schmidt (2012), Acta Cryst. C 68, o144–o148; [9] S. L. Bekö, D. Urmann & M. U. Schmidt (2012), J. Chem. Cryst. 42, 933–940; [10] S. L. Bekö, S. D. Thoms, M. U. Schmidt & M. Bolte (2012), Acta Cryst. C 68, o28–o32; [11] M. Rudloff, S. L. Bekö, D. Chercka, R. Sachser, M. U. Schmidt, K. Müllen & M. Huth. "Structural and electronic properties oft he organic charge transfer system 4,5,9,10-tetramethoxypyrene - 7,7,8,8-tetracyanoquinodimethane", eingereicht; [12] S. L. Bekö, M. U. Schmidt & A. D. Bond (2012), CrystEngComm 14, 1967–1971; [13] S. L. Bekö, S. D. Thoms & M. U. Schmidt (2013), Acta Cryst. C 43, 1513–1515; [14] S. L. Bekö, E. Alig, M. U. Schmidt & J. van de Streek (2014), IUCrJ 1, 61–73; [15] S. L. Bekö, J. W. Bats & M. U. Schmidt (2009), Acta Cryst. C 65, m347–m351; [16] S. L. Bekö, J. W. Bats & M. U. Schmidt. "One-dimensional zinc(II) fumarate coordination polymers", akzeptiert.
In der vorliegenden Arbeit wird ein Curriculum zur Beugung vorgestellt, welches sich in ein Kerncurriculum und Erweiterungsmodule gliedert. Das Kerncurriculum geht von einer systematischen Erarbeitung von Erscheinungsreihen aus, zunächst in Form von Freihandversuchen. Dabei werden periodische Strukturen vor das Auge gehalten und durchblickt. Erst in einem zweiten Schritt treten entsprechende komplexere Versuchsaufbauten hinzu. Der Zusammenhang zwischen den durchblickten oder durchleuchteten periodischen Strukturen und den Konfigurationen der Beugungsbilder wird im Konzept optischer Wege beschrieben. Optische Wege werden dazu operational definiert und als geometrische Ordnungselemente eingeführt, die dem Zusammenhang zwischen den jeweils wirksamen räumlichen Bedingungen und den auftretenden Erscheinungen immanent sind. Den methodischen Rahmen des Kerncurriculum bildet damit eine phänomenologische Vorgehensweise - insbesondere, weil die optischen Wege nicht als ein Vorstellungskomplex gefasst werden, den man zur ursächlichen Erklärung eines Phänomens heranziehen kann. In einem Erweiterungsmodul des Curriculums wird im Einzelnen ausgeführt, wie es durch dieses methodische Vorgehen schon bei der Thematisierung der Beugung möglich ist, die holistischen Eigenschaften der Quantentheorie anzulegen und vorzubereiten. Dadurch kann der Übergang von der Beugung zur Quantentheorie in einem einheitlichen methodischen Rahmen erfolgen und eine vertikale Vernetzung der Unterrichtsinhalte unterstützen. Entsprechend dem von ERB und SCHÖN ausgearbeiteten Lichtwegkonzept bekommt auch beim Konzept optischer Wege das FERMAT-Prinzip eine zentrale Stellung. Es wird in der vorliegenden Arbeit räumlich formuliert. Im zentralen Thema des Kerncurriculums, der Beugung am Gitter, reichen in Erweiterung des FERMAT-Prinzips dann zwei Bedingungen aus, die man an die optischen Wege stellen muss, um diese Beugungserscheinungen umfassend zu beschreiben. Auch komplexe Zusammenhänge, wie beispielsweise die Invarianz des Beugungsbildes unter Translationen des Gitters, sind so anschaulich zu erklären. Das Beugungsbild eines Gitters tritt in der Brennebene einer Linse auf. Da es invariant unter Translationen des Gitters ist, darf auch ein Abstand zwischen Gitter und Linse gewählt werden, welcher größer als deren Brennweite ist. Je nach Stellung eines Schirms hinter der Linse erhält man so entweder das Beugungsbild oder das Abbild des Gitters. Eine Darstellung beider Situationen im Konzept optischer Wege lässt den Zusammenhang zwischen Beugungs- und Abbild sehr deutlich hervortreten und macht Experimente zur optischen Filterung unmittelbar verständlich. Die in diesem Rahmen eingeführte kontextuale Abbildung rundet das Kerncurriculum ab und arbeitet die Gesamtheit der wirksamen Bedingungen besonders heraus. Gleichzeitig gelingt es, Eigenschaften der FOURIER-Transformation auf einer elementaren Ebene zu behandeln. In einem der Erweiterungsmodule werden die Beugungsbilder bei Rotationen eines Gitters untersucht. Dabei treten Beugungsbilder in Form von Kegelschnitten auf. Es wird gezeigt, wie die schon im Kerncurriculum in Erweiterung des FERMAT-Prinzips formulierten beiden Bedingungen an die optischen Wege sich weiterhin als tragfähiger Beschreibungsansatz erweisen. Dabei können Elemente der Festkörperphysik anschaulich eingeführt werden – hier sind es die LAUE-Kegel. In einem anderen Erweiterungsmodul schließen sich eine anschauliche Herleitung des reziproken Gitters und der EWALD-Kugel an. Das Erweiterungsmodul, welches den Übergang zur Quantentheorie thematisiert, geht von der Beugung am Doppelspalt aus und sieht dort die Einführung des Zeigerformalismus vor. Der Kontrast zur phänomenologischen Vorgehensweise des Kerncurriculums ermöglicht eine saubere Unterscheidung zwischen den optischen Wegen als immanenten Ordnungselementen und den Zeigern als abstrakten Symbolen, die Wellenfunktionen repräsentieren. Methodendiskussionen werden so unterstützt. Im Zentrum des Moduls steht die Besprechung von Welcher- Weg-Experimenten. Die kontextuale Abbildung im Konzept optischer Wege führt dabei, wie oben bereits erwähnt, ohne methodischen Bruch auf das Superpositionsprinzip der Quantentheorie. Die schulische Erprobung des Kerncurriculums und einiger Erweiterungsmodule ergab schließlich, dass die operationale Definition der optischen Wege und die Formulierung von Kriterien an diese optischen Wege zur Beschreibung der Beugung es ermöglicht, durch tragfähige Begriffe bei den Schülern ein Bewusstsein für Zusammenhänge zwischen Teilinhalten des Unterrichtes zu wecken und die Beugung in eine Fülle optischer Erscheinungen zu integrieren. Der Übergang vom Experiment zu abstrakten Lerninhalten wird dann durch den Unterricht deutlich und generiert ein hohes Methodenbewusstsein.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1999 - 2001
(2008)
Die Arbeit enthält eine statistische Auswertung des Sektionsgutes des Zentrums der Rechtsmedizin in Frankfurt/Main von 1999-2001. Durch den Abgleich von Sektionsprotokollen mit den in das Programm Obduktio (MÜLLER und BRATZKE, 1993) eingegebenen Daten, konnte zusätzlich eine institutsinterne Fehleranalyse der Dateneingabe erfolgen. In den Jahren 1999-2001 verzeichnete das Zentrum der Rechtsmedizin in Frankfurt/Main insgesamt 3.956 Leichendurchgänge, bei denen in 2.689 Fällen (68,0%) eine Obduktion durchgeführt wurde. Beim Gesamtleichendurchgang überwog mit 2.514 Leichen (63,6%) der männliche Anteil deutlich gegenüber 1.438 weiblichen Leichen (36,4%). Das Durchschnittsalter aller eingelieferten Leichen betrug 56,4 Jahre, das der Obduzierten 52,9 Jahre. Der größte Teil der Obduktionen (1.822) ging auf gerichtliche Anordnungen zurück. Außerdem wurden 786 Feuerbestattungssektionen, 40 Privatsektionen, 26 Transplantations-, neun Verwaltungs- und sechs Versicherungssektionen durchgeführt. Die Kategorie "Sonstige" beinhaltete 43 Fälle, die nicht obduziert wurden. Bei 1.224 Leichen fand lediglich eine Besichtigung statt. Bezüglich der Todesart ergab sich bei 1.285 Obduktionen (47,8%) ein natürlicher und in 1.205 Fällen (44,8%) ein nichtnatürlicher Tod. Bei 161 Todesfällen (6,0%) blieb die Todesart unklar und 38-mal (1,4%) lag eine kombinierte (natürlich und nichtnatürlich) Todesart vor. Die häufigste natürliche Todesursache stellten die Herz-Kreislauf-Erkrankungen dar (60,6%). Das Durchschnittsalter der natürlich verstorbenen Personen lag mit 60,0 Jahren deutlich über dem der nichtnatürlichen Todesfälle (45,6 Jahre). An erster Stelle der Todesumstände nichtnatürlicher Todesarten standen mit 363 Fällen (30,1%) Selbsttötungen (69,1% Männer und 30,9% Frauen). Die häufigste Form des Suizids war die Strangulationsmethode durch Erhängen (28,4%), gefolgt von Vergiftungen (22,0%) und Tod durch "stumpfe Gewalt" (20,1%). Durch Unglücksfälle kamen 316 Personen (26,2%) ums Leben. Hierunter befanden sich vor allem Drogentote (157 Fälle; 80,9% Männer). Verkehrsunfälle stellten mit 245 Verstorbenen (20,3%; 71,0% Männer) die dritthäufigste Gruppe dar. Den größten Anteil hatten hierbei Kfz-Fahrer (62 Fälle; 88,7% Männer). Kfz-Insassen waren am zweithäufigsten betroffen (46 Fälle; 58,7% Frauen). Fußgänger wurden in 44 Fällen in einen Verkehrsunfall mit letalem Ausgang involviert (54,5% Männer). Die 21-30-jährigen Verkehrsunfallopfer hatten mit 42 Personen (17,1%) den größten Anteil. Die am häufigsten zum Tode führende Verletzung war das Polytrauma (51,0%), gefolgt von Schädel-Hirn-Traumata (29,0%). Zu einer Untersuchung der Blutalkoholkonzentration kam es in 146 Fällen: 29,2% der Männer und 17,5% der Frauen wiesen zum Unfallzeitpunkt einen Wert von mindestens 0,03% auf. Durch ein Tötungsdelikt starben insgesamt 142 Personen (57,0% Männer), was einem Anteil von 11,8% an allen nichtnatürlichen Todesfällen entsprach. Bei der Klassifikation der Tötungsdelikte stellten Mord und Totschlag die häufigsten Delikte dar (71,1%). Die meisten Opfer (19,7%) waren zwischen 41-50 Jahre alt (57,1% Männer). Die Daten für die Jahre 1999-2001 zeigten einen deutlichen Rückgang der Tötungsdelikte um 33,3%. Bei Haushaltsunfällen kamen 52 Personen (55,8% Männer), und bei Arbeitsunfällen 47 Menschen (davon eine Frau) ums Leben. Des Weiteren lagen 19 Fälle (73,7% Frauen) von ärztlichen Kunst- oder Behandlungsfehlern und acht Sportunfälle (100,0% Männer) vor. In 13 Fällen blieb der Todesumstand unklar. Der Vergleich des Sektionsgutes mit den offiziellen Sterbestatistiken der Stadt Frankfurt/Main zeigte, dass im Betrachtungszeitraum durchschnittlich 6,4% der verstorbenen Bürger Frankfurts im Zentrum für Rechtsmedizin obduziert wurden. Von 1999-2001 nahm die Zahl verstorbener Frankfurter Bürger um insgesamt 3,5% ab. Auch die Zahl der obduzierten Leichen aus dem Einzugsgebiet Frankfurt verminderte sich konstant, jedoch wesentlich deutlicher, nämlich um 49,3%. Durch eine nichtnatürliche Todesursache verstarben 910 in Frankfurt gemeldete Personen, von denen 39,7% zur Obduktion gebracht wurden. Von 17.808 natürlichen Todesfällen wurden 4,2% obduziert. Das Durchschnittsalter der verstorbenen Frankfurter Bürger lag bei 75,3 Jahren, während obduzierte Frankfurter nur ein Durchschnittsalter von 60,1 Jahren erreichten. Die institutsinterne Auswertung der fehlerhaften Eingaben in das Datenerfassungsprogramm Obduktio zeigte, dass die häufigsten Eingabefehler das Sterbedatum betrafen (15,0% bezogen auf den Gesamtleichendurchgang), dass dieses jedoch für die Datenanalyse als eher unwichtig einzustufen ist. Ein für die Filterung hingegen sehr wichtiges Kriterium wie die Todesart ("natürlich"/"nichtnatürlich") oder die Sektionsart wurden zu 2,8% bzw. 2,0% falsch eingegeben.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1996 – 1998
(2005)
Das Sektionsgut im Zentrum der Rechtsmedizin in Frankfurt am Main der Jahre 1996 bis 1998 wurde nach eingehender Analyse der Todesfallakten, mit einem speziell für die rechtsmedizinischen Belange entwickelten Datei-Erfassungsprogramm (MÜLLER, 1992) erfasst und ausgewertet. Es wurden von 1996 bis 1998 insgesamt 3 663 Leichen in das Zentrum der Rechtsmedizin eingeliefert. Davon wurden 2 795 Leichen obduziert (76%). Der männliche Obduktionsanteil überwog mit 64% deutlich dem weiblichen Anteil mit 36%. Das Durchschnittsalter aller obduzierten Leichen lag bei 64 Jahren, während das Durchschnittsalter der gerichtlich Obduzierten 45 Jahre betrug. Gerichtliche Obduktionen lagen im Auftrag der Staatsanwaltschaften Darmstadt, Frankfurt am Main, Hanau, Wiesbaden und Darmstadt / Zweigstelle Offenbach mit 1 707 Fällen vor. In 1023 Fällen fand eine Feuerbestattungssektion statt. In weiteren 38 Fällen kam es zu einer Transplantationssektion. In 14 Fällen wurde eine private Sektion veranlasst. Hinzu kamen 8 Versicherungs- und 5 Verwaltungssektionen. 847 Leichen wurden lediglich besichtigt. 21 Leichen wurden irrtümlich in das Zentrum der Rechtsmedizin eingeliefert (sog. „Irrläufer“). Bei den obduzierten Leichen lag in 48,6% ein natürlicher Tod, in 47,9% ein nichtnatürlicher Tod vor. Eine Kombination aus beiden wurde in 1,1% der Fällen diagnostiziert. Bei 2,4% der Todesfälle konnte die Todesart nicht geklärt werden. Unter den nichtnatürlichen Todesfällen standen 439 Selbsttötungen im Vordergrund, wobei die Todesumstände überwiegend durch Stürze aus der Höhe („stumpfe Gewalt“) bestimmt war (24% der Fälle), gefolgt von Strangulationen und Vergiftungen (jeweils 21%). Bemerkenswert war der Rückgang der obduzierten tödlichen Verkehrsunfälle auf 272 Fälle. Am häufigsten waren Kfz-Fahrer mit 27,5% betroffen. An zweiter Stelle standen Fußgänger / PKW-Unfälle (22,8%). Die Verkehrsunfallopfer verstarben zum größten Teil (42%) an den Folgen eines Polytraumas, in weiteren 37% führte ein isoliertes Schädel-Hirn-Trauma zum Tode. Im Untersuchungszeitraum wurden 170 Opfer von Tötungsdelikten obduziert, wobei 83% durch Mord bzw. Totschlag verstarben (143 Fälle). Die restlichen 17% verteilten sich auf Kindestötung bzw. Tod durch Kindesmisshandlung, tödliche Körperverletzung und Sexualmord (27 Fälle). An Haushaltsunfällen (im eigentlichen Sinne „Unglücksfälle im häuslichen Bereich“) verstarben 101 Personen. Eine Hauptrolle spielte mit 47% die Einwirkung von stumpfer Gewalt durch Stürze an Treppen (weniger von Leitern und aus Fenstern) und Wohnungsbränden in 28% der Fälle, die restlichen 26% verteilten sich auf Haushaltsunfälle durch Einwirkung von Strom, Vergiftungen, Ertrinken, Ersticken und Glasssplitterverletzung. Bei der Analyse von Arbeitsunfällen konnte mit 41 Fällen eine rückläufige Tendenz beobachtet werden. In dieser Auswertung waren Männer betroffen. Die Phänomenologie der Drogentodesfälle verdeutlicht den gesellschaftlichen Panoramawandel der siebziger Jahre. Im Untersuchungszeitraum zeigten sich 151 drogenbedingte Todesfälle. Während 1972 bis 1974 nur 20 Drogentodesfälle obduziert wurden, kam es bereits 1978 bis 1980 zu einem Anstieg auf 147 Todesfälle. Allerdings ist zu beobachten, dass die Drogenfälle zunehmend durch Medikamentenmissbrauch abgelöst werden. Seit 1994 wird der Gebrauch von Amphetaminderivaten (Ecstasy) beschrieben, dessen Konsum eine deutlich steigende Tendenz zeigt (bis 1996 Anstieg auf das dreifache). Bei den natürlichen Todesursachen beherrscht der plötzliche Herztod nach wie vor mit einem Obduktionsanteil von 61% die Sterblichkeitsrate. Einen nicht unwesentlichen Anteil mit 13% nahmen die Lungenerkrankungen ( Pneumonie, Embolie, Tumore ) ein. Tuberkulose spielt im Gegensatz zu früher keine Rolle mehr. Auf plötzliche Säuglings- bzw. Kleinstkindtode entfiel ein Obduktionsanteil von 4%. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, dass in den Jahren 1996 bis 1998 durchschnittlich 7% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Der Anteil der außergerichtlichen Obduktionen (in der Regel Feuerbestattungssektion) betrug 4%, im Auftrag der Staatsanwaltschaft Ffm wurden 3% untersucht. Das Durchschnittsalter dieser Obduzierten lag im Mittel 13 Jahre unter dem der gesamten Frankfurter Sterbefälle. Nach Auswertung besonderer nichtnatürlicher Todesfälle ist festzustellen, dass im Untersuchungszeitraum offensichtlich alle Opfer von entdeckten Tötungsdelikten, jedoch nur 63% der in Frankfurter verunglückten Verkehrsunfallopfer, obduziert wurden. Die ausgewerteten Obduktionen geben Einblick über die Entwicklung im Straßenverkehr und der Drogenszene in den betreffenden Jahren und können für andere epidemiologischen Untersuchungen zum Vergleich herangezogen werden.
Zur Phänomenologie der Obduktionen im Zentrum der Rechtsmedizin in Frankfurt am Main 1993 - 1995
(2003)
Das Sektionsgut des Zentrums der Rechtsmedizin in Frankfurt am Main der Jahre 1993 bis 1995 wurde anhand der entsprechenden Sektionsprotokolle und -bücher mit Hilfe eines eigens für den rechtsmedizinischen Bereich entwickelten Datenerfassungsprogrammes erfasst und ausgewertet (MÜLLER und BRATZKE, 1993). Im Untersuchungszeitraum wurden insgesamt 4115 Leichen in das Zentrum der Rechtsmedizin eingeliefert, von denen 79,5% (3271 Leichen) obduziert wurden. Bezüglich der Geschlechtsverteilung des gesamten Sektionsgutes betrug der Anteil der Männer 66% und der Frauen 34%. Sowohl bei den natürlichen Todesfällen (62,3%) als auch bei den nichtnatürlichen Todesfällen (70,5%) überwog der Anteil der Männer deutlich. Das Durchschnittsalter aller Obduzierten lag bei 50,7 Jahren. Im Auftrag der Staatsanwaltschaften Frankfurt am Main, Darmstadt mit der Zweigstelle Offenbach, Hanau und Wiesbaden wurden innerhalb der drei Jahre 2031 Leichen obduziert. In 937 Fällen fand eine Feuerbestattungssektion und in 278 Fällen eine Verwaltungssektion statt. Neun Obduktionen wurden im Auftrag einer Versicherung und 16 Obduktionen im Auftrag von Privatpersonen durchgeführt. 53 Todesfälle fielen unter die Kategorie "Sonstiges". Hierunter wurden sowohl 44 "Irrläufer", die zunächst in die Rechtsmedizin eingeliefert wurden, eigentlich aber in der Pathologie seziert werden sollten, sieben amerikanische Staatsbürger, die nach Kenntnis der Nationalität ohne Obduktion oder Besichtigung den amerikanischen Stellen überantwortet wurden, und zwei Fälle von Organteilen zusammengefaßt. 791 Leichen wurden besichtigt. In 50,7% (1660) der Fälle wurde ein nichtnatürlicher Tod, in 43,8% (1432) ein natürlicher Tod festgestellt, in 5,1% (168) blieb die Todesart auch nach der Obduktion unklar. Unter den nichtnatürlichen Todesfällen befanden sich 333 Verkehrstote, 75% waren Männer. In 35% der Fälle handelte es sich bei den Unfallopfern um Fußgänger, die durch einen Pkw, ein anderes Kfz oder ein Schienenfahrzeug erfaßt und getötet wurden. 28% der Todesfälle waren Fahrer und 11% Insassen eines Pkw. Weitere 11% kamen als Radfahrer und 9% als Motorradfahrer ums Leben. 49,5% der Verkehrsunfallopfer starben an den Folgen eines Polytraumas und bei 31% führte ein isoliertes Schädelhirntrauma zum Tode. Die Selbsttötungen stellten mit 30% (492 Fälle) die häufigste Art des nichtnatürlichen Todes dar. Der Suizid durch Erhängen bzw. Strangulation war die meist gewählte Methode (28%), gefolgt vom Tod durch "stumpfe Gewalt" bedingt Sprung aus dem Fenster oder vor einen Zug (24%). Bei 404 Todesfällen handelte es sich um einen Unglücksfall. Hier standen die sog. Drogentoten mit 239 Todesfällen deutlich im Vordergrund. Anhand der rückläufigen Tendenz der Anzahl der Drogentoten werden Chancen und Möglichkeiten einer integrativen gegenüber einer restriktiven Drogenpolitik deutlich. 80 Personen kamen bei einem Haushaltsunfall und 45 Personen, unter ihnen eine Frau, bei einem Arbeitsunfall ums Leben. In den Jahren 1993 bis 1995 wurden 243 Personen Opfer eines Tötungsdeliktes. Der Anteil von 39% Frauen entspricht dabei dem bundesweiten Durchschnitt. Die Zahl der Tötungsdelikte nahm im Untersuchungszeitraum um 15% zu, wobei der weibliche Anteil relativ konstant blieb. Der Vergleich des Sektionsgutes mit den Verstorbenen der Stadt Frankfurt am Main zeigte, daß im Betrachtungszeitraum durchschnittlich 7,2% der verstorbenen Frankfurter Bürger im Zentrum der Rechtsmedizin obduziert wurden. Die Obduktionsfrequenz lag bei den natürlichen Todesfällen bei 4,5% und bei den nichtnatürlichen Todesfällen bei 50,4%. Die vorliegenden Ergebnisse zeigen Enwicklungstendenzen und Auswirkungen bestimmter Maßnahmen in Bereichen wie Straßenverkehr und Drogenpolitik auf und können für andere epidemiologische Untersuchungen zum Vergleich herangezogen werden, ebenso kann durch systematische Sektion ein "Frühwarnsystem" etabliert werden, das zu rechtzeitigen präventiven Maßnahmen Anlass gibt.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
Obwohl zur Diagnostik kognitiver Funktionen bei Patienten mit psychischen Störungen computerisierte neuropsychologische Leistungstests inzwischen das Mittel der Wahl sind, gibt es kaum Untersuchungen, ob es eine besondere Patient-Computer-Interaktion gibt, und ob diese Interaktion Einfluss auf die Ergebnisse neuropsychologischer Leistungstests hat. Aufgrund der spezifischen Psychopathologie depressiver Erkrankungen ist diese Fragestellung hierzu besonders relevant. In der vorliegenden Studie wurde deshalb die Patient-Computer-Interaktion zunächst mit den Variablen Computererfahrung, Computereinstellung und Wahrnehmung der Testsituation operationalisiert. Anschließend wurde geprüft, ob sich depressive Patienten in diesen Variablen von Kontrollpersonen unterscheiden, ob die Computererfahrung und die Computereinstellung jeweils einen Einfluss auf die Ergebnisse von neuropsychologischen Leistungstests haben und ob diese Einflüsse besonders stark bei depressiven Patienten zum Tragen kommen. Es wurden 73 Patienten mit rezidivierend depressiver Störung mit 73 Alters und Geschlecht gematchten Kontrollpersonen verglichen. Die Diagnose erfolgte anhand der Internationalen Diagnose Checklisten nach DSM IV. Zur Erfassung der Patient-Computer-Interaktion wurden der Demographische Fragebogen zu Umgang mit Computern, die Groningen Computer Attitude Scale sowie ein neu entwickelter Fragebogen zur Wahrnehmung der Testsituation eingesetzt. Die umfangreiche neuropsychologische Untersuchung erfolgte mit den Testbatterien NEUROBAT und CANTAB sowie einer Visuomotorischen Tracking-Aufgabe. Depressive Patienten zeigten kognitive Leistungsdefizite gegenüber Kontrollpersonen in einer Gedächtnis Wiedererkennen-, einer Visuomotorischen Tracking- und in einer Arbeitsgedächtnisaufgabe. Die Patienten hatten weniger Computererfahrung, eine weniger positive Computereinstellung und nahmen die Testsituation weniger positiv wahr als Kontrollpersonen, obwohl die Computereinstellung und die Wahrnehmung der Testsituation auch bei den Patienten überwiegend positiv war. Sowohl Patienten als auch Kontrollpersonen mit geringer Computererfahrung oder negativerer Computereinstellung zeigten in einigen neuropsychologischen Tests schlechtere Ergebnisse trotz der statistischen Kontrolle möglicher konfundierender Variablen wie Alter, Geschlecht und Bildung. Die Computererfahrung fungierte dabei von allen Variablen als häufigster Prädiktor zu Erklärung eines Testergebnisses. Depressive Patienten mit negativerer Computereinstellung reagierten langsamer bei den Tests der NEUROBAT-Testbatterie. Ansonsten ergaben sich keine weiteren Interaktionen Gruppe x Computererfahrung bzw. Gruppe x Computereinstellung. Computerisierte neuropsychologische Leistungstests werden von Patienten mit rezidivierend depressiver Störung überwiegend positiv wahrgenommen. Sowohl bei den Patienten als auch bei den Kontrollpersonen haben die Computererfahrung und Computereinstellung stellenweise einen Einfluss auf die Testergebnisse. Die Nichtberücksichtigung dieser Variablen kann somit zur Benachteiligung von Personen führen, die über geringe Computererfahrung oder eine negativere Computereinstellung verfügen. Rezidivierend depressive Patienten sind bei Nichtberücksichtigung dieser Variablen nicht aufgrund ihrer spezifischen Psychopathologie benachteiligt, sondern wegen ihrer geringeren Computererfahrung und negativeren Computereinstellung. Bei der Untersuchung kognitiver Funktionen mit computerisierten neuropsychologischen Leistungstests sollten deshalb zukünftig sowohl bei wissenschaftlichen als auch bei klinischen Fragestellungen immer die Computererfahrung und die Computereinstellung mitberücksichtigt werden.
Schon kurz nach Änderung der Verordnung über das Leichenwesen und der Einführung des neuen Leichenschauscheines in Hessen am 15.4.1996 traten Schwierigkeiten auf, die zunächst auf die Umstellung zurückgeführt wurden. Nachdem auch einige Monate später die Klagen von vielfältiger Seite (Ärzte, Sanitäter, Bestatter, Kriminalpolizei) nicht nachließen, sollte untersucht werden, ob, warum und in welchem Umfang die Handhabung des neuen Leichenschauscheines solche Schwierigkeiten bereitet. Die Untersuchung basierte zum einen auf der Auswertung der Leichenschauscheinen der Verstorbenen, die im Zentrum der Rechtsmedizin in der Zeit von 1.1.31.3.1997 zur Verfügung standen (264 vertrauliche, 161 nichtvertrauliche Teile der Leichenschauscheine) zum anderen auf Interviews mit dem Standesamt, Gesundheitsamt, Kriminalpolizei, Verwaltung der Universitätsklinik und einem Bestatter. Als Gesamtergebnis kristallisierte sich heraus, dass der Leichenschauschein formale Mängel aufweist. Insbesondere die Angabe des Totauffindens ist mit dem Personenstandsgesetz nicht vereinbar, nach dem grundsätzlich die Todeszeit, bzw. der Todeszeitraum angegeben werden muss. Zum anderen war das Fehlen der Rubrik ''Natürlicher Tod'' einer der wesentlichen Mängel, weil häufig von Ärzten auch bei nichtnatürlichem Tod vergessen wurde, die entsprechende Rubrik zu signieren, so dass ohne Vorliegen des vertraulichen Teils der Standesbeamte von einem natürlichen Tod ausgehen musste. In einem Fall ist erst bei der zweiten Leichenschau im Krematorium der wirkliche Sachverhalt aufgeklärt worden, mit entsprechender Störung des Beerdigungsablaufes. Weiterhin ist der Leichenschauschein sehr unübersichtlich angelegt, indem gleiche Angaben sich an verschiedenen Stellen befinden, was dazu führt, dass sie häufig nicht, unvollständig oder falsch ausgefüllt werden. Auch die praktische Handhabung mit verschiedenen Briefumschlägen ohne eindeutige Kennzeichnung führte dazu, dass z.B. der nichtvertrauliche Teil mit in den für den vertraulichen Teil vorgesehenen Umschlag kurvertiert wurde und damit wiederum ein weiteres Herantreten an die Angehörigen notwendig war. Einer der größten Mängel ist darin zu sehen, dass darauf verzichtet wurde eine ''Vorläufige Todesbescheinigung'', wie es in anderen Bundesländern üblich ist, einzuführen. Das bedeutet, dass der Notarzt nach dem Einstellen der Wiederbelebungsmaßnahmen solange warten muss, bis sichere Todeszeichen aufgetreten sind. Dieses ist nicht nur unökonomisch, sondern häufig wegen eines neuen Einsatzes auch nicht durchführbar. Als Mangel ist auch das Fehlen der Warnhinweise (''Schrittmacher'') im vertraulichen Teil zu werten. Dadurch liegen wichtige Informationen dem die zweite Leichenschau bei Feuerbestattung durchführenden Arzt nicht vor. Bei dieser Sachlage scheint es unabdingbar eine Änderung des Leichenschauscheines und des Procedere herbeizuführen. Vorstellbar wäre ein einheitliches Formular der vertreibenden Verlage mit Schwärzungen an den Stellen, die von datenschutzrechtlichem Belang sind. Ferner sollten für sämtliche Formularblätter entsprechend gekennzeichnete Briefumschläge zur Verfügung stehen, so dass grundsätzlich bei jeder Leichenöffnung alle Formulare in einen gesonderten Umschlag kommen. Außerdem sollte noch einmal von gesetzgeberischer Seite überdacht werden, ob eine ''Vorläufige Todesbescheinigung'', wie sie sich in anderen Bundesländern bewährt hat, einzuführen. Letztlich wird auch darüber nachzudenken sein, wie die Qualität der ärztlichen Leichenschau zu verbessern ist. In erster Linie wird es eine Frage bei der Ausbildung der Medizinstudenten sein, die aber zu dieser Zeit die ''Ernsthaftigkeit'' dieser Tätigkeit noch nicht richtig einzuschätzen wissen. Außerdem wird es durch die Reduzierung der Leichenöffnungen und z.T. sehr emotional geführte Rechtsdiskussionen immer schwieriger den Arzt ''in praxi'' auszubilden. Zweifellos ist die Bereitschaft zur Fortbildung bei Ärzten, die die Leichenschau durchführen, später größer, aber hier ist kaum noch eine institutionalisierte, zeitaufwendige Fortbildung möglich. Letztlich muß auch darüber nachgedacht werden, inwieweit nicht vermeidbare Mängel bei der Leichenschau und bei dem Ausfüllen des Leichenschauscheines durch Verhängung von Bußgeldern sanktioniert werden sollte. Schließlich entstehen nicht nur anderen Institutionen (Standes, Gesundheitsamt, statistische Behörden) und Angehörigen durch Mängel bei der Leichenschau erhebliche Beschwernisse und Unkosten. Es kann auch einem Täter bei Verkennung einer Tötung Anlaß zu weiteren entsprechenden Taten geben.
Ziel dieser Untersuchung ist es, die Legitimität der Kriminalisierung des Glücksspiels in Brasilien zu hinterfragen. Dies geschieht mit besonderem Augenmerk auf das spezifische brasilianische Glücksspiel, das „Spiel der Tiere“ (Jogo do bicho), das Ende des 19. Jahrhunderts in der Stadt Rio de Janeiro, der Hauptstadt des damaligen kaiserlichen Brasiliens, entstand. Es handelt sich um eine Form des Glücksspiels, die sich in ganz Brasilien verbreitet hat und bereits Gegenstand mehrerer akademischer Studien in den Bereichen Anthropologie und Soziologie war. Das Verbot dieser Art von Glücksspiel, seine Kriminalisierung, seine große Beliebtheit und seine gesellschaftliche Toleranz sind jedoch Gründe dafür, dass das Spiel der Tiere im Besonderen und das Glücksspiel im Allgemeinen auch im juristischen Bereich, insbesondere im Strafrecht, ein bisher vernachlässigter Forschungsgegenstand von großem Interesse ist.
Das Hauptaugenmerk dieser Arbeit liegt auf der Analyse der Kriminalisierung des Glücksspiels, das in Brasilien seit über einem Jahrhundert unter freiem Himmel praktiziert wird. Bei dieser Analyse werden die Gründe für die Kriminalisierung und die Legitimität des Verbots in Frage gestellt. Zu diesem Zweck ist der Text, abgesehen von der Einleitung und der Schlussfolgerung, in sechs Kapitel unterteilt.
Kapitel 1 beschreibt die Geschichte des brasilianischen Tierspiels, die Ursprünge seines Verbots und seiner Kriminalisierung. In Kapitel 2 wird über die Wirklichkeit der Strafverfolgung in diesem „Kriminalitätsbereich“ berichtet. Kapitel 3 stellt den ent-sprechenden Straftatbestand des brasilianischen „Código Penal“ im Kontext der Systematik des brasilianischen Strafgesetzbuches vor. Kapitel 4 widmet sich zunächst den verfassungsrechtlichen Grenzen der Kriminalisierung, und danach einem Überblick über das deutsche Glücksspielverbot und die Glücksspielregulierung. Ergänzt wird diese Suche in Kapitel 5, in dem die Forschung das strafrechtliche Glücksspielverbot in den Kontext der Debatte über die Abgrenzung zwischen und den Zusammenhang von Recht und Moral. Im abschließenden Kapitel 6 wird das (strafrechtlich sanktionierte) Glücksspielverbot mit den klassischen Legitimations-anforderungen konfrontiert.
Was in der strafrechtlichen Literatur der ersten Hälfte des 20. Jahrhunderts zur Rechtfertigung des Verbots zu lesen ist, deutet auf einen großen Einfluss moralischer Argumente hin. Diese Argumente haben bis heute an Gewicht nicht verloren, auch wenn die Befürworter der Beibehaltung der Kriminalisierung versuchen, ihre letztlich moralistische Ideologie gegen das Glücksspiel mit Argumenten wie der Begleitkriminalität des Glückspiels zu verschleiern, die eher eine Folge als eine Ursache der Kriminalisierung ist.
Diese Arbeit befasst sich mit dem Philosophen Emmanuel Levinas und dem persischen Dichter Hafis, die als genuine Denker der Situation vorgestellt werden. Levinas und Hafis folgend, versucht die Autorin aufzuweisen, dass unser Sein immer ein In-Situation-sein ist. Das "In" zeigt dabei nicht ein "Innen" im Gegensatz zu einem "Außen" an. Hingegen ist der Mensch in Situationen sowohl Innen als auch Außen. Situation ist jedoch kein bestimmter Zustand des Seins des Menschen, sondern Weise des Daseins, im wie des Seins. Dieses In-sein schließlich wird von der Autorin, und hierin folgt sie explizite Emmanuel Levinas, übersetzt als Ausgesetztheit. Ausgesetztheit als solche ist Ur-Situation, Situation der Situation und somit ein anderer Ausdruck für das Beziehungs-sein. Das Beziehungssein aber hat sein Äußerstes in der Liebe. Liebe jedoch ist nicht deshalb unbedingt, weil sie eine bloße Steigerung des Lebensgefühls bedeutete, auf die der Mensch "aus ist". Liebe ist Grunderfahrung und als solche eine Bewegung, die sich von sich her übersteigert. Liebe bewahrt die Kontinuität des Lebens als Relatio. Denn Liebe "relativiert" nicht das "Böse des Schmerzes" aufgrund des Guten der Heiligkeit. Liebe ist Ertragen im Schmerz, Aufenthalt in der Heiligkeit. So situiert sie als reine Passivität und Empfänglichkeit stets "jenseits von Gut und Böse". Die Öffnung der Liebe, d.i. der Zugang zum Anderen, vollzieht sich durch das Weibliche. Die Autorin beschreibt Weiblichkeit als Konkretisierung des Eros, der mit Levinas und Hafis als Fruchtbarkeit vorgestellt wird, die schon "jenseits" der biologischen Bedeutung Sinn "hat". Mit der Explikation der von der Autorin entwickelten Figur "Schleier der Weiblichkeit" wird schließlich versucht, über die Referenzen Levinas und Hafis noch hinauszugehen. Im Schleier "symbolisiert" sich die Macht der Weiblichkeit, die zugleich "Passivität" und "Zärtlichkeit" ist. Der Schleier ist Ausdruck einer Weiblichkeit, die das Geheimnis des Seins als das Geheimnis des Antlitzes infiniert.
Derzeit ist die Frage nach der optimalen Therapie der Lyme-Borreliose noch nicht abschließend geklärt. Fälle von Therapieversagen sind aber für fast alle eingesetzten antibiotischen Substanzen beschrieben. Zudem stellen chronische Verläufe die behandelnden Ärzte immer wieder vor Probleme. Eine genauere Charakterisierung der Antibiotikaempfindlichkeit von Borrelien ist daher wünschenswert, zumal bislang nur wenig über die natürliche Resistenz des Erregers und die pharmakodynamischen Wechselwirkungen zwischen Antibiotika und Borrelien in vivo und in vitro bekannt ist. Neuen, einfach zu handhabenden, standardisierten Tests zur Empfindlichkeitsprüfung antibiotischer Substanzen kommt hierbei eine entscheidende Rolle zu. Das in der vorgelegten Arbeit verwendete kolorimetrische Mikrodilutionsverfahren war benutzerfreundlich in der Anwendung und erwies sich als zuverlässig, reproduzierbar und genau. Die für bekannte Standardsubstanzen ermittelten MHK- und MBK-Werte für Borrelien sind in sehr guter Übereinstimmung mit den Ergebnissen anderer Autoren unter ähnlichen experimentellen Bedingungen. Die hier vorgelegten Ergebnisse zeigen eine verbesserte in-vitro-Aktivität neuerer Fluorchinolone gegen Borrelien. Fluorchinolone wie Gatifloxacin, Sitafloxacin und Gemifloxacin (Klasse-IV-Fluorchinolone) waren bezüglich ihrer in-vitro-MHK-Werte mit denen von einigen beta-Lactam-Antibiotika annähernd vergleichbar. Allerdings lagen die MHK- und MBK-Werte von Mezlocillin und Piperacillin noch deutlich unter denen der genannten Chinolone. Insgesamt zeigten Fluorchinolone der Klassen IV und III eine stärkere in-vitro-Aktivität gegen Borrelien als Aminoglykoside, Ansamycine und Monobactame. Für Chinolone mit guter bis sehr guter Wirksamkeit gegen B. burgdorferi ergab sich folgende Rangfolge: Gemifloxacin (MHK90: 0,12 µg/ml) > Sitafloxacin (MHK90: 0,5 µg/ml); Grepafloxacin (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml) > Moxifloxacin (MHK90: 2 µg/ml); Ciprofloxacin (MHK90: 2 µg/ml) > Levofloxacin (MHK90: 4 µg/ml). Im Gesamtvergleich aller Substanzen zeigte sich folgende Rangordnung für Antibiotika mit guter bis sehr guter in-vitro-Aktivität: Mezlocillin (MHK90: kleiner/gleich 0,06 µg/ml); Piperacillin + Tazobactam (MHK90: kleiner/gleich 0,06 µg/ml) > Gemifloxacin (MHK90: 0,12 µg/ml) > Penicillin G (MHK90: 0,25 µg/ml); Meropenem (MHK90: 0,25 µg/ml) > Grepafloxacin (MHK90: 0,5 µg/ml); Sitafloxacin (MHK90: 0,5 µg/ml); Amoxicillin + Clavulansäure (MHK90: 0,5 µg/ml); Imipenem (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Clinafloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml); Vancomycin (MHK90: 1 µg/ml). Die umfassende statistische Analyse aller experimentell bestimmten MHK- und MBK-Werte für die verschiedenen untersuchten Antibiotika ergab z. T. signifikante Genospezies-spezifische Unterschiede bei der Empfindlichkeit der getesteten Isolate des B. burgdorferi-Komplexes gegen Penicillin G, Meropenem, Mezlocillin, Piperacillin, Amoxicillin, Aztreonam, Sitafloxacin, Grepafloxacin, Gemifloxacin, Norfloxacin, Ofloxacin und Pefloxacin. Insgesamt zeigten B. garinii-Isolate dabei interessanterweise signifikant niedrigere MBK- und z. T. auch niedrigere MHK-Werte als die übrigen eingesetzten Borrelia-Genospezies. Die höchsten MBK-Werte wurden hingegen bei den getesteten B. burgdorferi s. s.-Isolaten beobachtet. Vor dem Einsatz von Fluorchinolonen in der Therapie der Lyme-Borreliose müssen aber zunächst die Ergebnisse von klinischen Studien abgewartet werden. Moderne Chinolone sind als möglicher alternativer Therapieansatz bei Lyme-Borreliose insofern interessant, als sie bekanntermaßen auch gegen andere durch Zecken übertragene Krankheitserreger wie den Erreger der Humanen Granulozytären Ehrlichiose (HGE) und manche Rickettsia spp. wirksam sind.
Traditionell-morphologisch begründete Hypothesen zur Großphylogenie der Metazoa sind im Verlauf der letzten Jahre durch molekularbiologische Untersuchungen grundsätzlich in Frage gestellt worden. Die molekularbiologisch begründete Metazoen-Großphylogenie wird seit einem Übersichtsartikel von ADOUTTE et al. (2000) meist als „New Animal Phylogeny“ bezeichnet (kurz: NAP); sie beinhaltet eine Restrukturierung des Stammbaumes (kladogenetischer Aspekt) und die Infragestellung einer morphologischen Komplexitätssteigerung nach dem Schema acoelomat-pseudocoelomat-coelomat (anagenetischer Aspekt). Hinsichtlich der Kladogenese steht die Neueinteilung der Bilateria in drei Superphyla Deuterostomia, Ecdysozoa und Lophotrochozoa im Vordergrund; die Genealogie innerhalb dieser drei Großgruppen ist aber z.Z. relativ schlecht aufgelöst, so daß sich Vergleichsmöglichkeiten mit morphologischen Vorgängermodellen schnell erschöpfen. Aus diesem Grunde wird in vorliegender Arbeit der anagenetische Aspekt als Ausgangspunkt für eine umfassende morphologische Interpretation der molekularbiologischen Resultate gewählt. Momentan wird auf molekularsystematischer und vergleichend-entwicklungsgenetischer Basis davon ausgegangen, daß die frühesten Bilaterier eine acoelomate Organisation aufwiesen, von hier aus eine relativ komplexe, polymer-coelomate Organisation erwarben, welche dann aber in zahlreichen Bilaterierlinien sekundär reduziert wurde. Die ursprünglich acoelomate Organisation wird rezent nur durch eine sehr isolierte Linie, die Acoela (ggf. auch Nemertodermatida) vertreten, während alle anderen Bilaterier von einem polymer-coelomaten „Urbilaterier“ abstammen sollen. In vorliegender Arbeit wird die Auffassung vertreten, daß die morphologische Deutung eines solchen anagenetischen Szenarios am ehesten anhand der Hydroskelett-Theorie von W. F. GUTMANN (1972 et mult.), sowie späteren auf diesem Entwurf aufbauenden Arbeiten (insbesondere der Gallertoid-Hypothese, BONIK et al. 1976) möglich ist, d.h. auf konstruktionsmorphologischer Grundlage. Um den Nachweis einer weitgehenden Übereinstimmung von NAP und Gallertoid-Hydroskelett-Theorie zu führen, werden für 36 Metazoenbaupläne (4 Nonbilaterier, 32 Bilaterier) aktuelle molekularphylogenetische Befunde den jeweiligen konstruktionsmorphologischen Interpretationen gegenübergestellt. Für die vier Nonbilateria-Linien ergibt sich eine Vereinbarkeit auf kladogenetischer Ebene insbesondere dann, wenn die Placozoa vor den Porifera abzweigen (z.Z. aufgrund von mtDNADaten anzunehmen); auf anagenetischer Ebene aufgrund von Studien, welche die „Diploblastica/ Triploblastica“-Unterteilung in Frage stellen (Mesoderm-Problem). Für die Bilateria ist u.a. festzuhalten, daß im Rahmen der Hydroskelett-Theorie kein Schwestergruppenverhältnis Annelida + Arthropoda angenommen wurde, so daß die umstrittene neue Großgruppe Ecdysozoa unproblematisch ist: Ecdysozoa werden durch Ableitung der „Aschelminthen“ von polymeren Vorformen einer Deutung zugänglich. Die Molekularsystematik der Annelida, aber auch der Deuterostomia ist mit konstruktionsmorphologischen Interpretationen vereinbar, bei den Deuterostomia v.a. der hochderivierte Status der Pterobranchia und Tunicata. Als kennzeichnendste Übereinstimmung ist die Einordnung der Tentaculata als hochabgeleitete Protostomier hervorzuheben, was sowohl als „Grundstein“ der NAP gilt (HALANYCH et al. 1995) als auch eine sehr spezifische Position der Hydroskelett-Theorie darstellt. Es wird gefolgert, daß die Gallertoid- Hydroskelett-Theorie zentrale Resultate der NAP besser zu integrieren vermag als andere Entwürfe. Konsequenzen für merkmalsmorphologische Deutungen werden aufgezeigt.
Die im Mittelhirn lokalisierten dopaminergen (DA) Neurone sind in einer Vielzahl von Hirnfunktionen involviert und werden aufgrund von anatomischen, molekularen sowie funktionellen Unterschieden in mehrere Subpopulationen aufgeteilt. DA Neurone, die in der Substantia nigra (SN) pars compacta lokalisiert sind, spielen durch ihre Projektion in das dorsale Striatum eine Rolle in der Steuerung der Willkürmotorik. Die Area tegmentalis ventralis (VTA) enthält DA Neurone, die in den präfrontalen Cortex, die basolateralen Amygdala sowie den Nucleus accumbens projizieren und in höheren kognitiven Funktionen, wie dem Arbeitsgedächtnis, der Motivation sowie belohnungsassoziierten Lernvorgängen involviert sind.
In dieser Arbeit wurden die differentiellen Eigenschaften des transienten A-Typ Kaliumstroms sowie dessen Funktion für die intrinsische elektrische Aktivität und die Integration von synaptischen Eingängen in Subpopulationen von DA Neuronen untersucht. Dieser spannungsgesteuerte Strom ist an der Kontrolle der Schrittmacheraktivität beteiligt, beeinflusst die Form und Dauer von Aktionspotentialen und moduliert die Erregbarkeit des somatodendritischen Kompartiments. Der A-Typ Kaliumkanal besteht in DA Neuronen aus einem Tetramer von porenbildenden KV4.3 α-Untereinheiten. Die Koexpression von akzessorischen β-Untereinheiten moduliert maßgeblich die biophysikalischen Parameter des A-Stroms, wie z. B. die Kinetik der Inaktivierung sowie die Spannungsabhängigkeit der Aktivierung und Inaktivierung. Zu diesen β-Untereinheiten gehören die cytoplasmatischen Kaliumkanal-interagierenden Proteine (KChIPs) sowie die transmembranären Dipeptidylpeptidase-ähnlichen Proteine (DPPLs). Während in DA SN Neuronen vor allem KChIP3 exprimiert wird und einen schnell inaktivierenden A-Strom gewährleistet, sind DA VTA Neurone durch die zusätzliche Expression der KChIP4a Splice-Variante charakterisiert, welche durch Inhibition der schnellen Inaktivierung in einem langsam inaktivierenden A-Strom resultiert. Die Bedeutung der differentiellen KChIP4a-Expression für DA Mittelhirnneurone wurde mit Hilfe von KChIP4-Knock-Out (KO)-Mäusen untersucht. Alle Versuche wurden in vitro an akuten Hirnschnitten adulter Wildtyp (WT)- und KChIP4-KO-Tiere durchgeführt und die DA neurochemische Identität sowie die Lage der gemessenen Zellen im Anschluss immunhistochemisch bestätigt. Die biophysikalischen Eigenschaften des A-Stroms wurden mit der Patch-Clamp Technik in der nucleated outside-out Konfiguration untersucht, welche optimale Bedingungen für Voltage-Clamp Experimente gewährleistet. Der A-Strom in DA VTA Neuronen aus KChIP4-KO-Tieren wies dabei eine siebenfach schnellere Inaktivierungskinetik als in vergleichbaren Neuronen aus WT-Tieren auf, während die Inaktivierungskinetik in DA SN Neuronen aus KChIP4-KO-Tieren lediglich um den Faktor zwei schneller war. Außerdem wurde festgestellt, dass selektiv in DA VTA Neuronen das halbmaximale Aktivierungspotential ebenfalls von der KChIP4-Expression abhängig war. Somit konnte gezeigt werden, dass die Expression von KChIP4 für die charakteristischen A-Strom-Eigenschaften von DA VTA Neuronen verantwortlich ist.
Die funktionelle Rolle des KChIP4-vermittelten langsamen A-Stroms wurde mit Hilfe von Current-Clamp Messungen in Ganzzellableitungen untersucht. Dabei wurde deutlich, dass die Expression von KChIP4 die Spontanaktivität von DA SN und VTA Neuronen nicht beeinflusst. Das für DA VTA Neuronen charakteristische verzögerte Wiedereintreten der Spontanaktivität nach einer Inhibition zeigte allerdings eine Abhängigkeit von der KChIP4-Expression, da der sog. rebound delay in DA VTA Neuronen aus KChIP4-KO-Tieren signifikant kürzer war, als in Zellen aus WT-Tieren. Dies konnte sowohl durch Strominjektionen, die in ihrer Kinetik GABAergen synaptischen Eingängen ähnelten, als auch nach direkter Aktivierung von GABA-Rezeptoren durch iontophoretische GABA-Applikation bestätigt werden. KChIP4 könnte somit einen internen Verzögerungsmechanismus nach einer transienten Inhibition von DA Neuronen gewährleisten, die z.B. bei Präsentation von aversiven Stimuli sowie beim Ausbleiben von erwarteten Belohnungen auftritt. Somit könnte die physiologische Relevanz des KChIP4-gesteuerten A-Stroms in der Integration von inhibitorischen synaptischen Eingängen im Kontext von belohnungsgesteuerten Lernprozessen liegen.
Ezrin gehört zur Gruppe der Actin-Zytoskelett-bindenden ERM-Proteine und ist in seiner Funktion für Leukozyten gut beschrieben, wo es in Zusammenhang mit der interund intrazellulären Induktion von Apoptose gebracht wurde. Im Kontext der Astrozytenbiologie ist seine Expression mit astrozytärer Aktivierung, der Malignität von Astrozytomen und der Apoptose von Neuronen bei HIV-Encephalitis assoziiert. Die vorliegende Studie untersucht die Expression von Ezrin in Astrozyten bei verschiedenen Demenzerkrankungen mit der Frage nach krankheitsspezifischen astrozytären Aktivierungsphänomenen und einem möglichen Zusammenhang mit neuronaler Apoptose. Hierzu wurden 51 Gehirne von Demenzpatienten und 17 Gehirne von Normalkontrollen des Neurologischen Instituts (Edinger Institut) der Johann Wolfgang Goethe-Universität Frankfurt am Main histopathologisch untersucht. An Schnitten von jeweils 4-6 in Paraffin eingebetteten Gehirnarealen pro Fall wurden eine modifizierte Silberimprägnationsfärbung nach Bielschowsky und immunhistochemische Färbeverfahren für Ezrin, GFAP, HLA-DR, hyperphosphoryliertes Tau-Protein und Ubiquitin angefertigt und semiquantitativ evaluiert. Zur Darstellung von apoptotischen DNA-Strangbrüchen wurde die TUNEL-Methode verwendet. Die hier untersuchte Stichprobe entspricht in Hinsicht auf die Verteilung verschiedener Demenztypen weitgehend der neueren Literatur: Die häufigste Demenzerkrankung war die Alzheimersche Erkrankung mit 84% (N=43), gefolgt von der Demenz mit Lewy-Körperchen mit 35% (N=18), der vaskulären Demenz mit 18% (N=9) und der Frontal–Lobe-Dementia mit 6% (N=3). 47% der Fälle litten an einer Kombination von zwei Demenzerkrankungen. Die astrozytäre Ezrin-Expression zeigt keine signifikante Differenz zwischen verschiedenen Demenzformen. Dies trifft sowohl für singuläre Demenzerkrankungen als auch für Kombinationsdemenzerkrankungen zu. Die astrozytäre Ezrin-Expression korreliert hochsignifikant mit dem Schweregrad der Alzheimerschen Erkrankung, gemessen an der Dichte neuritischer Plaques in Anlehnung an die Klassifikation nach CERAD. Die astrozytäre Ezrin-Expression korreliert hochsignifikant positiv mit der Apoptose von Neuronen unabhängig vom Erkrankungstyp. Im Unterschied zur Ezrin-Immunoreaktivität, die nahezu ausschließlich bei Demenzfällen mit neuronaler Apoptose eine deutliche Erhöhung aufwies, zeigte sich die GFAP- und HLA-DR-Immunoreaktivität bei Demenzfällen generell im Vergleich zu Kontrollfällen deutlich erhöht. Zusammenfassend trägt die Untersuchung der astrozytären Ezrinexpression nicht zur Differentialdiagnose von Demenztypen bei, ist jedoch mit dem Schweregrad von Demenzerkrankungen korreliert. Ezrin fungiert offenbar als Indikator eines spezifischen astrozytären Aktivierungszustandes, der eine Assoziation mit schwerem Gewebeschaden in Form neuronaler Apoptose aufweist. Dieser Aktivierungszustand erwies sich in der vorliegenden Untersuchung als unabhängig vom Krankheitstyp, was für die These spricht, dass eurodegenerative Erkrankungen pathophysiologische Gemeinsamkeiten teilen könnten. Darüber hinaus weisen die Ergebnisse der Studie darauf hin, dass die Aktivierung von Astrozyten kein homogenes Phänomen darstellt, sondern in distinkten Formen assoziiert mit progressiver Gewebsschädigung des ZNS auftreten kann.
Zur Evolution der Hirnmorphologie und Anpassungen an Extremhabitate im Taxon Poecilia (Teleostei)
(2020)
Diese Dissertation befasst sich mit den Auswirkungen kontrastierender Umweltbedingungen auf die Gehirnmorphologie von neotropischen Fischen der Gattung Poecilia, welche unterschiedlichen abiotischen sowie biotischen Stressoren ausgesetzt sind. Da das Gehirn der Teleostei ein energetisch kostspieliges Organ und viel plastischer ist als z. B. bei Säugetieren, stellt sich die Frage, wie die Gehirnanatomie durch divergierende ökologische Faktoren in verschiedenen Umgebungen geformt wird, die ´extreme´, ´ressourcenbeschränkte und günstige´ Umgebungen repräsentieren. Zur Beantwortung dieser Frage wurden intraspezifische Studien an freilebenden und Laborindividuen von Poecilia-Arten durchgeführt, um die evolutionäre und ökologische Formgebung des Gehirns besser verstehen zu lernen. Im ersten Teil der Arbeit wurden Gehirnvolumina verglichen zwischen reproduktiv isolierten Populationen des neotropischen Fisches Poecilia mexicana (Ntotal = 95), die in Dunkelheit leben (Cueva Luna Azufre), in einem nahegelegenen Oberflächenhabitat (El Azufre), welcher giftigen Schwefelwasserstoff enthält und einer Kombination aus beiden Stressoren Dunkelheit und H2S (Cueva del Azufre). In einer zweiten Studie wurde auf anatomische („konvergente“) Veränderungen im Teleost-Gehirn entlang eines natürlichen Gradienten von Sulfidkonzentrationen getestet. Hierfür wurden Gehirne (Ntotal = 100) von P. mexicana verglichen, die in drei Flusssystemen im Süden Mexikos unabhängig voneinander eine erhöhte Toleranz gegenüber Schwefelwasserstoff (H2S) entwickelt haben. Dazu gehörten eine phylogenetisch alte H2S-adaptierte Form (P. sulphuraria) und zwei P. mexicana Formen, welche frühere Stufen der Anpassung an H2S darstellen. Zur Überprüfung des Einflusses anderer abiotischer und biotischer Faktoren auf die Morphologie der Gehirnregionen wurde eine weitere Studie durchgeführt. Hierbei wurden die phänotypischen Variationen der Gehirnregionen und der Körpermorphologie von Poecilia vivipara-Populationen (Ntotal = 211) aus Lagunen des Restinga de Jurubatiba Nationalpark untersucht, die sich in abiotischen Umgebungsbedingungen, insbesondere in Salzgehalt, Wassertransparenz, Phosphat und Nitrat sowie biotischen Faktoren wie Prädatorendichte unterschieden. Die erste Studie zeigte lebensraumabhängige Unterschiede bei freilebenden Fischen. Bei Fischen, die in Dunkelheit ohne H2S (LA) oder in Oberflächenhabitaten mit H2S lebten, wurden vergrößerte telenzephale Lappen, kleinere Augen und optische Tekta gefunden. Fische aus der sulfidischen Höhle (CA) zeigten zusätzlich vergrößerte Corpus cerebelli. Der Vergleich mit den Gehirnen von Labor aufgezogenen weiblichen Fischen (Ntotal = 25) zeigt eine allgemeine Verringerung der Gehirngröße sowie eine geringe Abweichung der Gehirngröße zwischen Labor aufgezogenen und freilebenden Fischen. Auch in der zweiten Studie zeigten alle in H2S-haltigen Lebensräumen lebenden Fische kleinere Augen, ein kleineres optisches Tektum und ein kleineres Gehirnvolumen, jedoch größere Corpus cerebelli und Hypothalamusvolumen als Fische aus nicht-sulfidischen Lebensräumen. Flusssystem-spezifische Effekte wurden für die telenzephalen Lappen, das gesamte Gehirn und die Augengröße festgestellt, da die Geschlechter je nach Quelle des Flusssystems unterschiedlich auf das Vorhandensein von H2S reagierten. Die dritte Studie zeigt auch, dass andere Umwelteinflüsse bemerkenswerte Verschiebungen im Gehirn und in den Gehirnregionen verursachen können. Fische, die im Süßwasser leben, zeigten eine verringerte Gesamthirngröße, telenzephale Lappen, Corpus cerebelli und Hypothalamusvolumen. Darüber hinaus zeigten Fische aus Salzwasserlagunen (hypersalin), ein verringertes Volumen des optischen Tektum, während telenzephale Lappen, Corpus cerebelli und Hypothalamusvolumen im Vergleich zu Süßwasserfischen vergrößert waren. Im Brackwasser lebende Fische wiesen im Vergleich zu Süß- und Salzwasserfischen die größten Gehirnregion-Volumen auf. Darüber hinaus zeigten die Ergebnisse über die Lagunen hinweg auch Unterschiede in der Morphologie der Kopf- und Augendurchmesser. Bei Augengröße, Kopfgröße, optischem Tektum Volumen, Hypothalamusvolumen und dem Gesamthirnvolumen wurde ein sexueller Dimorphismus beobachtet. Die dargestellten Ergebnisse verdeutlichen, dass die gefundenen Muster nahezu mit denen von H2S-Fischen identisch sind. Die ausgeprägten Unterschiede in den Hirnregionen zwischen freilebenden Fischen können als Teil der Mosaikentwicklung interpretiert werden. Die Ergebnisse der Laborpopulation zeigen jedoch eine hohe phänotypische Plastizität. Diese Studie unterstreicht damit die Bedeutung der Kombination der Untersuchung von freilebenden mit im Labor lebenden Individuen zur Beantwortung von Fragen der Gehirnentwicklung. Kleinere Augen und ein kleineres optisches Tektum, aber größere telenzephale Lappen wurden auch bei Fischen aus einem sulfidischen Oberflächenhabitat in der Nähe einer der Höhlen gefunden und sind den Ergebnissen zufolge das Resultat begrenzter Sehkraft in trüben sulfidischen Lebensräumen.
...
Diese Studie - Teil der Gesamtevaluation eines BLK-Modellversuchs - verfolgt das Ziel der Analyse und Veränderung von Musikunterricht. Die Untersuchungsfrage lautet: Welchen Einfluss hat Musikunterricht, realisiert in verschiedenen Varianten - insbesondere unter Einbezug des Instrumentlernens -, auf die Entwicklung unterschiedlicher musikalischer Fähigkeiten bei Zehn- bis Zwölfjährigen. Angelegt als quasi-experimenteller Vergleich werden Aussagen gewonnen zur Entwicklung von re-produktiven, kognitiven (Hören, Wissen, Anwenden) und sensorisch-rezeptorischen musikalischen Fähigkeiten. Die aufwendige Konstruktion von informellen Lern- und Leistungstests in Form von Gruppen- und Individualtests erlaubt teils erstmalig die Untersuchung komplexer Fähigkeiten musikalischer Ausübung. Weitere, auch standardisierte Tests und Befragungen werden u.a. zur Ermittlung der Kovariaten für die inferenzstatistischen Verfahren einbezogen und dokumentiert. Die Forschungsfragen werden in Kontexte entwicklungspschologischer Befunde, handlungsorientierter Theorie sowie in lern- und bildungstheoretische Zusammenhänge gestellt. Aus den Ergebnissen werden musikdidaktische und bildungspolitische Konsequenzen formuliert, wobei der Begriff „musikalische Grundkompetenz“ eine zentrale Rolle spielt.
Lange Zeit gab es in der deutschsprachigen Kinder- und Jugendliteraturkritik keine Unterscheidung zwischen phantastischen Erzählungen und Fantasy. Diese Gattungsdifferenzierung beginnt sich erst ab der Jahrtausendwende durchzusetzen. Betrachtet man das deutsche Textkorpus, das bis dahin global als Phantastik bezeichnet wurde, so lässt sich feststellen, dass der mittlerweile herausgearbeitete Unterschied zwischen phantastischen Erzählungen und Fantasy schon in den 1950er und 1960er Jahren zu erkennen ist. Sowohl die gattungstheoretischen Unterscheidungen als auch die Gattungsbegriffe haben jedoch erst um die Jahrtausendwende eine gewisse Festigkeit gewonnen.
Ein zentrales Anliegen dieser Arbeit ist es, die nicht-realistischen kinder- und jugendliterarischen Werke der Nachkriegsjahrzehnte im Lichte der jüngeren gattungstheoretischen Differenzierungen neu zu bewerten und ggf. zuzuordnen. Gefragt wird, ob in der deutschen Kinder- und Jugendliteratur der 1950er bis 1980er Jahre bereits Werke existieren, welche nach aktuellem Begriffsgebrauch als Fantasy zu bezeichnen sind. Ein dabei zu berücksichtigender Aspekt betrifft die Gattungsgeschichte, welche nicht mit der der englischer bzw. amerikanischer Kinder- und Jugendliteratur vergleichbar ist. Laut einer Definition von Ewers (2013) versuchte die deutsche Kinder- und Jugendliteraturwissenschaft lange Zeit, dem Genre Fantasy „beizukommen“, indem sie diese als ein Sub-Genre der Phantastik ansah. Hierin sieht er einen Irrweg. Sicherlich gibt es Parallelen zwischen phantastischer Erzählung und Fantasy, doch seien diese rein äußerlicher Natur.
Anhand der Definition von Ewers untersucht diese Arbeit, ab wann von Texten gesprochen werden kann, die dem jüngeren Verständnis von Fantasy entsprechen und welche kinder- und jugendliterarischen Werke nach diesem Erkenntnisstand hinzuzuzählen sind. Dabei liegt das Augenmerk auf der Bedeutung und Vorgeschichte von Fantasy-Literatur für den westlichen deutschsprachigen Raum. Methodisch wurde wie folgt vorgegangen: Ein Korpus aus kinder- und jugendliterarischen Texten wurde gebildet. Anschließend wurde dieser im Hinblick auf die in Ewers‘ Definitionsansatz genannten Charakteristika untersucht. Hieraus entwickelte sich der Gedanke, eine für die weiterführende Forschung hilfreichen Klassifizierung der phantastischen Kinder- und Jugendliteratur der Nachkriegszeit zu entwickeln, um den Stellenwert zeitgenössischer Fantasy verdeutlichen zu können.
Holzkohlen aus archäologischen Grabungen im Sahel von Burkina Faso belegen die regionale Geschichte der Gehölzvegetation über die letzten 2000 Jahre. Der Bodenbau, den die sesshaft lebende Bevölkerung seit Beginn unserer Zeitrechnung intensiv betreibt, veränderte die Zusammensetzung der Gehölzvegetation vor allem auf den Dünen der Region. Im Vergleich mit der heutigen Vegetation lassen sich zudem klimatische Veränderungen nachweisen. Untersucht wurden über 9000 Fragmente aus sieben verschiedenen archäologischen Grabungen. Sechs Inventare stammen aus Siedlungshügeln. Bei einem Fundplatz handelt es sich um einen Hausgrundriss. Insgesamt wurden 37 Holzkohletypen erkannt und dokumentiert. Die untersuchten Inventare der Siedlungshügel zeigen, dass vor allem die Gehölzvegetation der Dünen und der Galeriewälder zur Brennholzentnahme genutzt wurde. Je nach Lage der Siedlung und dem Schwerpunkt der Wirtschaftsweise können verschiedene Taxa mit höheren Anteilen vertreten sein, möglicherweise zusätzlich verstärkt durch die anthropogene Auswahl von verfügbarem Brennholz. Im Vergleich der Holzkohleinventare lassen sich für die Eisenzeit regionale Entwicklungen erkennen. Die natürlichen Gehölzbestände auf den Dünen, unter anderem aus verschiedenen Akazienarten, wurden, zumindest in der Umgebung der Siedlungen, verdrängt. Stattdessen nahmen aufgrund der selektiven Förderung durch den Menschen die Anteile der Gehölze der Kulturbaumparks, Vitellaria paradoxa und Faidherbia albida zu. Die Landwechselwirtschaft förderte zudem Brachearten insbesondere aus der Familie der Combretaceae. In der späten Eisenzeit nahm Guiera senegalensis zu, die von starker Beweidung der Brachen profitiert. Der Unterwuchs der Galeriewälder an den mares und Wasserläufen wurde mit zunehmender Besiedlungsdauer in der Umgebung der einzelnen Fundplätze aufgelichtet, die Anteile von Combretum micranthum gehen in den Inventaren der einzelnen Siedlungsplätzen jeweils zurück. Klima und Vegetation waren während der Eisenzeit sudano-sahelisch. Auf feuchteres Klima verweisen Vitellaria paradoxa und Detarium microcarpum, die deutlich höhere Niederschläge benötigen, als sie die Region heute erhält. Der hohe Anteil von Taxa, die heute weiter südlich verbreitet sind, belegt zudem den sudanischen Aspekt der Gehölzvegetation. Der Vergleich der anthrakologischen mit den palynologischen und karpologischen Ergebnissen zeigt, dass die Gehölzvegetation sich unter zunehmend arideren Bedingungen in den letzen 2000 Jahren anthropozoogen stark verändert hat. Das Klima scheint aber während der Eisenzeit von 0-1500 AD vergleichsweise stabil gewesen zu sein. Erst danach haben die Niederschläge sich soweit verringert, dass in den letzten 500 Jahren einige sudanische Taxa aus der Region verschwanden, die noch während der Eisenzeit zur regionalen Flora gehört hatten, zum Beispiel Vitellaria paradoxa, Detarium microcarpum und Lannea sp. Der Vergleich der eisenzeitlichen Holzkohleflora mit der rezenten Dynamik der Vegetation und mit der Verbreitung einiger Arten um die Mitte des 20. Jahrhunderts zeigt, dass einige Taxa, wie Terminalia sp. möglicherweise erst in den letzten fünfzig Jahren aus der Region verschwunden sind.
Versucht eine gesunde Person, regungslos auf einer Stelle zu stehen, so kann man feststellen, dass diese vermeintlich einfache Aufgabe nicht zu erfüllen ist. Dieses scheinbar statische Gleichgewicht beim ruhigen Stehen ist bei genauer Betrachtung beherrscht von subtilen, kontinuierlichen Körperschwankungen. Warum treten solche variablen Muster im Gleichgewichtsprozess auf? Die Untersuchung (Ursachenforschung, Beschreibung, Bewertung) dieser Fluktuationen ist Gegenstand der vorliegenden grundlagenwissenschaftlichen Arbeit.
Die vorliegende quasiexperimentelle Studie geht der Frage nach, welche kognitiven Merkmale sich im hohen Alter als trennscharf für die Abgrenzung einer beginnenden Alzheimer-Demenz von einer Major-Depression erweisen. 186 hochaltrige Patienten, die von April 2001 bis April 2007 in einer geriatrischen Abteilung eines Akutkrankenhauses stationär aufgenommen waren, wurden nach einem bewährten Prozedere fünf Untersuchungsgruppen (Kontrollgruppe, Gruppe der Major-Depression, Gruppe der leichten kognitiven Beeinträchtigung, Gruppe der Alzheimer-Demenz und Gruppe der Alzheimer-Demenz mit einer gleichzeitig bestehenden Major-Depression) zugewiesen. Eine sich anschließende neuropsychologische Untersuchung erfasste kognitive Leistungen wie die verzögerte Reproduktion von verbalem Material, Intrusionsfehler, visuell-räumliche Leistungen, formallexikalische und semantische Wortflüssigkeitsleistungen sowie Benennleistungen. Es zeigte sich, dass kognitive Merkmale wie das mittelfristige verbale Neugedächtnis, geprüft über die verzögerte Reproduktionsrate, die semantische Wortflüssigkeit sowie visuelle Benennleistungen wirksam zwischen einer beginnenden Alzheimer-Demenz und einer Major-Depression unterscheiden. Wenig aussagefähig sind dagegen eine quantitative Analyse von Intrusionsfehlern und eine Prüfung visuell-räumlicher Leistungen mit oder ohne expliziten Sprachbezug. Das in der Literatur vielfach beschriebene spezifische kognitive Profil der Depression der deutlich verminderten exekutiven Leistungen konnte in der hier zugrunde liegenden Studie nicht nachgewiesen werden. Kognitive Plastizitätskennwerte wie Retest- oder Trainingseffekte haben sich im Funktionsbereich des Benennens als differenzialdiagnostisch nicht bedeutsam erwiesen. Auch weisen Trainingseffekte keine größere prognostische Validität auf als Retesteffekte. Interessanterweise konnten bei Alzheimer-Patienten im Funktionsbereich des Benennens erwartungskonträre Retest- und Trainingseffekte nicht unerheblichen Ausmaßes gefunden werden. Diese sind auf weitgehend erhaltene perzeptive Priming-Effekte zurückzuführen und weisen bei Alzheimer-Patienten auf Lernressourcen hin, die rehabilitativ genutzt werden sollten. Verminderte konzeptuelle Priming-Effekte deuten auf eine beginnende Alzheimer-Erkrankung hin, was der Differenzialdiagnostik eine neue Perspektive eröffnet. Da ein zufälliges, gemeinsames Auftreten der beiden Krankheitsbilder Major-Depression und beginnende Alzheimer-Demenz nicht auszuschließen ist, bleibt trotz einer sorgfältigen evidenzbasierten Diagnostik insbesondere bei älteren oder hochbetagten Patienten die Abgrenzung von einer beginnenden Alzheimer-Demenz und einer Major-Depression schwierig.
Die vorliegende Arbeit vereint das Material von 54 Gräbern des bronzezeitlichen Tamassos, die in einem Zeitraum von 1889 bis 1995 ausgegraben wurden. Es ist daher verständlich, daß die verwertbaren Befunde heute qualitativ und quantitativ disparat vorliegen. Die Methodik der Ausgrabungen und die Art der schriftlichen Aufzeichnungen über diese Feldarbeit, die Auswahlkriterien für das Aufbewahren von Funden und deren überlieferte Beschreibung, die Grundlagen der Fundteilung sowie die Verwahrung und Registrierung des Fundgutes – all diese für die archäologische Arbeit grundlegenden Faktoren haben in den letzten einhundert Jahren wesentliche Veränderungen erfahren. Insofern war es notwendig, auf der Grundlage der verwertbaren Informationen möglichst einheitliche Prinzipien für die Darstellung der einzelnen Grabungsbefunde zu schaffen. Dieses Vorhaben ist nicht immer vollständig durchzuführen, da uns für die Ausgrabungen der Jahre 1889 und 1894 viele Informationen nicht mehr verfügbar sind. Ohnehin hat der Erstausgräber M. Ohnefalsch–Richter in diesen Jahren wesentliche Veränderungen bei seiner Fundaufnahme und Dokumentation vollzogen. Der heute erreichbare Erkenntnisstand ist ganz besonders davon abhängig, wohin die Objekte nach der Fundteilung gelangten, ob sie dort überhaupt als archäologischer Besitz aufbewahrt oder verschenkt bzw. verkauft wurden. Es ist außerdem nicht unwesentlich, wie die Sammlungen von Kypriaka in Deutschland durch die Wirren des zweiten Weltkrieges gebracht wurden. Schließlich ist von großer Bedeutung, welche schriftlichen Zeugnisse des Erstausgräbers, die sämtlich schon als Kriegsverlust galten, heute noch erreichbar oder rekonstruierbar sind. Diese Promotionsschrift wird in den nächsten Jahren in Zusammenarbeit mit H.–G. Buchholz zu einer eigenständigen Veröffentlichung der Prähistorie von Tamassos ausgebaut. Die vorliegende Teil faßt die bisher unpublizierten Funde des für die mittlere Bronzezeit zentralen Bereichs Tamassos–Lambertis incl. des westlichen Dorfrandes von Politiko zusammen, während die ebenfalls bemerkenswerten Nekropolen in den Gemarken Troulia und Kamara sowie die riesige spätkyprische Nekropole jenseits des Pediaios–Flusses der späteren Publikation überlassen bleiben. Dabei wird nur das Material bearbeitet, das mit einer gewissen Sicherheit einem bestimmten Grab zugewiesen werden kann.
In der vorliegenden Arbeit wird das Wachstums- und Zelltodverhalten von Tumoren des zentralen Nervensystems untersucht. Des Weiteren wird die Expression verschiedener Apoptose-assoziierter Faktoren in den Präparaten analysiert und mit Normalkontrollen verglichen. Es zeigt sich, dass Apoptose von Tumorzellen aller untersuchter Hirntumore und Malignitätsgrade vollzogen werden kann. Die Rate apoptotischer Zellen ist jedoch sehr variabel und korreliert nicht mit dem Malignitätsgrad der Tumore. Auch besteht keine Korrelation zwischen der Apoptose- und der Proliferationsrate. Die Ergebnisse legen insgesamt nahe, dass die Apoptoserate nicht als Marker für die Malignität von Tumoren des zentralen Nervensystems verwendet werden kann. Auch unter Einbeziehung Apoptose-assoziierter Faktoren ist eine Gradifikation der Tumore hinsichtlich der Malignität nicht möglich. So unterscheiden sich z.B. atypische (WHO-II) und anaplastische (WHO-III) Meningiome quantitativ und qualitativ nicht signifikant voneinander. Es können ebenfalls keine signifikanten Unterschiede hinsichtlich der Expression der untersuchten Apoptose-assoziierten Faktoren, sowie der Apoptose- und Proliferationsraten zwischen Medulloblastomen und primitiven neuroektodermalen Tumoren (PNETs) festgestellt werden. Dies spricht dafür, dass sich diese Tumore lediglich bezüglich ihrer Lokalisation im zentralen Nervensystem unterscheiden. Die Analyse der Apoptose-assoziierten Faktoren zeigt, dass alle untersuchten Faktoren grundsätzlich in allen untersuchten Tumoren vorkommen, während die Normalkontrollen diese Faktoren nicht exprimieren. Der Vollzug der Apoptose findet jedoch nicht in diesem Maße statt, da die Apoptoserate der Tumore (markiert durch TUNEL) stets wesentlich geringer ist als die Expressionsraten der Apoptose-assoziierten Faktoren. Es ist davon auszugehen, dass entdifferenzierte Tumorzellen entweder nur begrenzt in der Lage sind, ihr apoptotisches „Selbstzerstörungsprogramm“ in Gang zu setzen und zu Ende zu führen, oder, dass apoptosehemmende Mechanismen greifen. Um so interessanter wäre es, durch therapeutische Intervention Apoptose zu initiieren. Die Analyse der einzelnen Apoptose-assoziierten Faktoren liefert Hinweise darauf, an welchen Stellen des apoptotischen Systems eine solche Intervention ansetzen könnte: Die hochmalignen WHO-IV-Tumore zeigen eine signifikante Hochregulation der Effektor-Caspasen-3 und -6. Die physiologischen Aktivierungsmechanismen dieser Caspasen z.B. durch Caspase-2 und TNFalpha scheinen in diesen hochmalignen Tumoren jedoch weniger eine Rolle zu spielen, da diese Faktoren hier nur in geringem Ausmaß exprimiert werden. Jedoch könnten modifizierte, per se aktive Caspase-3- und -6-Moleküle eine interessante therapeutische Option zur Behandlung maligner Tumore des zentralen Nervensystems darstellen. Zu beachten ist aber unter anderem, dass z.B. Glioblastome auch geringe Expressionsraten apoptotischer Faktoren im peritumoralen, mikroskopisch nicht infiltrierten Normalgewebe zeigen. Dies könnte für eine peritumorale Dysfunktion des Hirngewebes sprechen. Welche Rolle dies bei der Behandlung mit Apoptose-stimulierenden Agenzien spielt und wie spezifisch die Anwendung solcher Stimulanzien für Tumorgewebe wären, muss Gegenstand weiterer Studien sein. Die untersuchten WHO-II- und –III-Tumore zeigen eine Hochregulation vor allem von Faktoren des extrinsischen Apoptoseweges (z.B. TNFalpha). Die Expressionsraten von TNFalpha korrelieren signifikant mit dem WHO-Grad der untersuchten Tumore. Interessante therapeutische Optionen könnten hier zum einen die Aktivierung des extrinsischen Apoptoseweges über TNFalpha sein, zum anderen könnte man versuchen, eine direkte Aktivierung über modifizierte Effektor-Caspasen herbeizuführen. Insgesamt existieren verschiedene mögliche Angriffsorte innerhalb des apoptotischen Netzwerkes der Zelle für eine thepeutische Intervention bei Tumoren des zentralen Nervensystems. Die Komplexität des Kaskade-artigen Systems legt nahe, dass eine therapeutische Intervention möglichst an dessen Ende erfolgen sollte, um möglichst viele Stör- und Hemmfaktoren zu umgehen.
Das akut-auf-chronische Leberversagen (ACLF) entsteht durch eine akute Dekompensation einer vorbestehenden Leberzirrhose mit begleitendem Multiorganversagen und ist durch eine sehr hohe Kurzzeitmortalität gekennzeichnet. Die Kriterien der European Association for the Study of Chronic Liver Failure (EASL-CLIF) definieren in diesem Zusammenhang ein Lungenversagen als Abfall des Horovitz-Quotienten unter 200mmHg oder als Abfall des Quotienten aus SpO2/FiO2 unter 214. Während Lungenfunktionsstörungen als unabhängiger Risikofaktor für Mortalität bei Patienten mit Leberzirrhose belegt sind, wurde die Bedeutung von mechanischer Beatmung und Lungenversagen bisher nicht isoliert untersucht. Ziel der Studie ist die Rolle von mechanischer Beatmung und Lungenversagen im ACLF zu analysieren und eine mögliche Unterinterpretation in den etablierten prädiktiven Modellen zu evaluieren.
Es wurden Daten aus 775 Hospitalisationen mit intensivmedizinischer Behandlung am Universitätsklinikum Frankfurt von insgesamt 498 Patienten mit Leberzirrhose im Zeitraum März 2015 bis Juli 2019 retrospektiv erfasst und ausgewertet. ACLF und Organversagen wurden gemäß EASL-CLIF Kriterien definiert. Es erfolgte die statistische Analyse verschiedener Kohorten, wobei ACLF-Patienten mittels Propensity Score hinsichtlich CLIF-C ACLF Score und Geschlecht gematcht und anhand der pulmonalen Beeinträchtigung in eine dreiarmige Testkohorte bestehend aus 49 Patienten mit Lungenversagen, 49 Patienten mit Schutzintubation und 49 Patienten ohne pulmonale Beeinträchtigung aufgeteilt wurden.
216 Patienten zeigten ein ACLF bei Aufnahme, 121 wurden mechanisch beatmet und 68 hatten ein Lungenversagen. In der gematchten Kohorte (n=147) konnten Lungenversagen (HR 3,0) und mechanische Beatmung (HR 1,7) als unabhängige Risikofaktoren für eine hohe 28-Tage-Mortalität identifiziert werden. Der CLIF-C ACLF Score konnte als bestes Modell für die Vorhersage der Kurzzeitmortalität bestätigt werden (AUROC 0,81), zeigte allerdingt deutliche Schwächen in der Subkohorte der Patienten mit Lungenversagen (AUROC 0,49) und mechanischer Beatmung (AUROC 0,68). Eine Kalibrierung des CLIF-C ACLF Scores für diese beiden Risikofaktoren liefert auch in der Gesamtkohorte aller zirrhotischer Patienten eine signifikant verbesserte prädiktive Performance (AUROC 0,87; p=0,001).
Mechanische Beatmung und Lungenversagen sind im Rahmen eines ACLF mit einer erhöhten Kurzzeitmortalität assoziiert und nur ungenügend in den etablierten Prädiktionsmodellen abgebildet. Die Kalibrierung des CLIF-C ACLF Scores für diese Risikofaktoren führt zu einer verbesserten Vorhersagegenauigkeit.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
Dihydrocodein wird im wesentlichen zu Dihydrocodein-6-O-43-ß-glucuronid (DHC6G), Dihydromorphin (DHM), Dihydromorpbin-3-O-ß-D-glucuronid (DHM3G), Dihydromorphin-6-O-ß-D-glucuronid (DHM6G) und Nordihydrocodein (NDHC) biotransformiert. In Analogie zu Codein wird vermutet, dass die Metaboliten DHM und DHM6G pharmkologisch deutlich aktiver als die Muttersubstanz sind und somit zur Wirkung von DHC wesentlich beitragen können, auch wenn sie nur in geringen Mengen gebildet werden. Da die O-Demethylierung von Dihydrocodein zu Dihydromorphin durch das polymorphe Cytochrom P450-Enzym CYP2D6 katalysiert wird, sind in EM (schnelle Metabolisierer) und PM (langsame Metabolisierer, weisen kein funktionelles CYP2D6-Enzym auf) unterschiedliche Metabolitenprofile zu beobachten. In etwa 5-10% der Kaukasier, die PM für CYP2D6 sind, könnte sich somit ein Therapiemisserfolg nach Gabe von therapeutisch empfohlenen Standarddosen an DHC einstellen. Es war daher Ziel der vorliegenden Arbeit, die Bedeutung der Biotransformation für die Wirkung von Dihydrocodein beim Menschen zu untersuchen. Im Rahmen dieser Untersuchung wurden Affinitätsprofile an Hirnmembranpräparationen und Affinitäts- und Aktivitätsprofile an humanen Neuroblastomzellen für DHC und seine Metaboliten erstellt. Des weiteren wurden pharmakokinetische und pharmakodynamische Parameter (und deren Zusammenhang) von Dihydrocodein und seinen Metaboliten beim gesunden Menschen unter Berücksichtigung des CYP2D6-Phänotyps mit Hilfe einer Pilot-Probandenstudie bestimmt. Zuletzt wurden die Ergebnisse der Affinitäts- und Aktivitätsversuche mit den Ergebnissen der Probandenstudie unter Berücksichtigung der verfügbaren Literaturdaten in Zusammenhang gebracht. Di in vitro-Untersuchungen zeigten, dass alls Prüfsubstanzen mit Ausnahme des unwirksamen DHM3G vorwiegend u-selektive Agonisten waren und dass das prinzipielle Verhältnis der Affinitäten bzw. Aktivitäten der einzelnen aktiven Prüfsubstanzen zueinander in allen Untersuchungen annähernd gleich war. Auf Grundlage dieser Daten konnte folgender Grundsatz formuliert werden; Die Affinitäten/Aktivitäten von DHM und DHM6G waren etwa um den Faktor 100 größer als die von DHC, während die anderen Metaboliten (mit Ausnahme des unwirksamen DHM3G) vergleichbare Affinitäten/Aktivitäten besaßen. Die im Rahmen der Probandenstudie ermittelten pharmakokinetischen Werte bestätigten verfügbare Literaturdaten, insbesondere dass CYP2D6 wesentlich für die Bildung von DHM war. So konnten weder DHM, DHM3G noch DHM6G in Plasma und Urin von PM detektiert werden. Die pharmakodynamischep Untersuchungen mittels Pupillometrie zeigten einen signifikanten Unterschied im ursprünglichen Pupillendurchmesser an den Zeitpunkten 1 bis 6 Stunden zwischen Placebo einerseits und EM bzw. PM andererseits. Damit konnte zunächst eine eigene in vivo-Wirkung von DHC beim Menschen nachgewiesen werden. Jedoch ergab sich kein signifikanter Unterschied zwischen EM und PM. Im zweiten pharmakodynamischen Modell (Schmerzmodell) konnten bezüglich der Parameter R-III-Reflexschwelle und VAS-EC30 keine Unterschiede sowohl zwischen EM und PM als auch zwischen Placebo und EM bzw. PM festgestellt werden, so dass 60 mg DHC keine analgetische Wirkung hatte oder das Modell für die Ermittlung der analgetischen Potenz von 60 mg DHC ungeeignet war. Einschränkend muss jedoch hier erwähnt werden, dass die Studie aufgrund der kleinen Fallzahl nur Pilotcharakter aufwies. Die Ergebnisse der vorliegenden Arbeit in Zusammenhang mit den verfügbaren Literaturdaten lassen die Schlussfolgerung zu, dass die pharmakologisch wesentlich aktiveren Metaboliten DHM und DHM6G nicht oder nur geringfügig zur Wirkung von DHC nach oraler Einzelgabe von 60 mg DHC beitragen. Gründe hierfür könnten die geringe Bildung von DHM und seinen Metaboliten (ca. 9%) und/oder durch Verteilung und Ausscheidung bedingte niedrige Konzentrationen am Rezeptor in vivo sein. Somit scheint die Biotransformation keine Bedeutung für die Wirkung von DHC zu haben. Entsprechend sind keine Unterschiede in der Therapie von EM und PM mit niedrigen therapierelevanten DHC-Dosen zu erwarten.
Schwerlösliche Arzneistoffe besitzen häufig unbeliebte biopharmazeutische Eigenschaften und ihre erfolgreiche Formulierung zur oralen Verabreichung stellt eine der häufigsten und größten Herausforderungen an die pharmazeutische Technologie dar. Unter zahlreichen Verfahren zur Überwindung von absehbaren Bioverfügbarkeitsproblemen kommt den physikalischen Methoden nach wie vor eine zentrale Bedeutung zu. In der vorliegenden Arbeit wurde erforscht, wie die Bioverfügbarkeit schwerlöslicher Verbindungen durch Anwendung physikalischer Verfahren und in fester Formulierung erhöht und ihre Auflösungsgeschwindigkeit als entscheidender Schritt hierzu optimiert werden kann. Als schwerlösliche Substanzen wurden die Arzneistoffe EMD 57033 und Albendazol, die eine vergleichweise niedrige Lipophilie aufwiesen, sowie Danazol, Felodipin und Fenofibrat (hohe Lipophilie) ausgewählt. Zunächst wurde untersucht, inwieweit eine klassische Wirkstoffmikronisierung dem Problem der schlechten Wasserlöslichkeit und der unzureichenden Auflösungsgeschwindigkeit zu begegnen vermag. In klassischer Art und Weise wurde gemäß der Noyes-Whitney-Beziehung durch Partikelgrößenreduktion die Auflösungsrate gesteigert. Bei großem Dosislöslichkeitsvolumen (>1000 ml) war eine Verbesserung nur bis zu einem gewissen Ausmaß möglich. Es wurde auch festgestellt, dass mit alleiniger Wirkstoffmikronisierung selbst bis in den unteren Mikrometerbereich und sogar bei Vorliegen eines kleinen Dosislöslichkeitsvolumens (<100 ml) eine optimale Auflösungsgeschwindigkeit nicht garantiert und oft nicht erzielt werden kann. Der Ansatz der Wirkstoffmikronisierung kann jedoch grundsätzlich empfohlen werden, da sich unabhängig von Dosis und Löslichkeit signifikante Verbesserungen in der Auflösungskinetik ergeben können. Luftstrahlmahlung ist eine zahlreichen anderen Verfahren überlegene Vermahlungstechnik. Sie erlaubt bei entsprechenden Einstellungen die trockene Herstellung ultrafeiner Partikel (1–3 Mikrometer) in kontinuierlichem oder Batch-Betrieb bei gut steuerbarem Prozess, der das Mahlgut praktisch keiner Temperaturbelastung unterwirft. Staubentwicklung und Abrieb müssen jedoch beachtet werden. Freisetzungen wurden in biorelevantem Medium (z.B. FaSSIF), das bestmöglich die gastrointestinalen Gegebenheiten simuliert, sowie zusätzlich in einem Mediumhöheren Tensidgehaltes durchgeführt, das zur Berücksichtigung einer ungehinderten Absorption der BCS-Klasse II-Substanzen in vivo-Sink-Bedingungen darstellte. Diese Vorgehensweise ist grundsätzlich zu empfehlen. Für EMD 57033 wurde zudem nachgewiesen, dass eine biorelevante Freisetzungsprüfung auch in einfachen SLSLösungen möglich ist. Das Dosislöslichkeitsvolumen nimmt grundsätzlich bedeutenden Einfluss auf das Freisetzungsverhalten. Die trockene Covermahlung ist ein äußerst erfolgreicher prozesstechnischer Schritt zur Formulierungsverbesserung. Sie wird durch Vermahlung eines Wirkstoffes mit einem oder mehreren Hilfsstoffen dargestellt. Durch Covermahlung per Gasstrahl zubereitete Formulierungen mit 10% Wirkstoffanteil erzielten für alle untersuchten Arzneistoffe eine optimale Auflösungsgeschwindigkeit und rasches Erreichen maximaler Freisetzung. Vergleichbaren physikalischen Mischungen sowie einfacher Mikronisierung war sie deutlich überlegen. Im Gegensatz zu reiner Wirkstoffmikronisierung bildete die Freisetzung nach Covermahlung nicht ausschließlich diskrete messbare Stoffeigenschaften ab (z.B. Korngröße), sondern war vielmehr das Ergebnis eines Herstellungsprozesses. Die qualitative und quantitative Auswahl der Hilfsstoffe prägte zudem das Freisetzungsverhalten entscheidend und in stärkerem Ausmaß als der Vermahlungsgrad. Die deutliche Verbesserung der Auflösungsgeschwindigkeit eines Wirkstoffes nach Covermahlung war unabhängig von der Wahl des Freisetzungsmediums und dem vorliegenden Dosislöslichkeitsvolumen. Die Kristallinität aller Arzneistoffe, mittels Röntgendiffraktometrie und DSC untersucht, wurde durch die Covermahlung nicht verändert. Die Korngröße eines covermahlenen Produktes konnte bei Einsatz schwer vermahlbarer Hilfsstoffe unter Umständen nicht auf den Wirkstoff projiziert werden. HPMC erwies sich als schwer vermahlbar. Für eine Aktivsubstanz (EMD 57033) wurde sogar die Ausbildung übersättigter Lösungen bei Freisetzung covermahlener Formulierungen nachgewiesen, die nicht in Phasenumwandlungen des Wirkstoffes oder in reiner Partikelgrößenreduktion begründet war. Lactose als Hilfsstoff förderte eine sehr hohe initiale Auflösungsgeschwindigkeit, oftmals wurde vollständige Freisetzung bereits nach 15 Minuten erreicht. Polymere wie HPMC und PVP wirkten stabilisierend, jedoch auch verzögernd. SLS förderte ebenfalls eine optimale Auflösungsrate durch Überwindung von etwaigen Benetzbarkeitsproblemen einesein gemahlenen) Wirkstoffes, unterband jedoch die Bildung von übersättigten Konzentrationen. Covermahlungen zeichneten sich durch eine sehr gute Reproduzierbarkeit von Herstellungsprozess und Produkt (einschließlich Freisetzungscharakteristik) aus und waren als deutlich robuster gegenüber reinen Wirkstoffvermahlungen einzustufen. Covermahlene Mischungen zeigten perfekte Homogenität. Der Wirkstoffgehalt ist zwingend nach Covermahlung zu prüfen, da sich durch den Herstellungsprozess leichte Verschiebungen in der quantitativen Zusammensetzung der Formulierung ergeben können. Covermahlungen sind industriell problemlos abbildbar. Covermahlene Formulierungen von EMD 57033 mit Lactose oder Polymeren bildeten ihre Überlegenheit gegenüber reinen Wirkstoffmikronisierungen, die sich in vitro durch die Ausbildung übersättigter Lösungen darstellte, auch in vivo in Hunden ab. Zwar steigerte bereits die Vermahlung des reinen Arzneistoffes seine orale Bioverfügbarkeit (0% - 37% relative BV), der Einsatz der Covermahlung konnte diese jedoch noch weiter erhöhen und nahezu verdoppeln (55%, 68%). Multiple Level CKorrelationen covermahlener und mikronisierter Wirkstoffformulierungen belegten erfolgreiche in vitro-Simulationen. Sprühtrocknungen schwerlöslicher Stoffe aus wässriger Umgebung geht das Problem voraus, den Stoff nicht in ausreichendem Maße auflösen zu können. In der vorliegenden Arbeit wurde daher mit Hilfe einer Rührwerkskugelmühle Kristallsuspensionen von Wirkstoffnanopartikeln (<200 nm, Messung durch Laserbeugung und Auswertung nach der Mie-Theorie) hergestellt, die dann getrocknet wurden. Den zwischenzeitigen Vorteil der extrem hohen Oberfläche in Form von Nanoteilchen gab der Wirkstoff nach Sprühtrocknung oder Sprüheinbettung (bei Anwesenheit gelöster oder (nano-) suspendierter Hilfsstoffe) wieder ab. Die Kombination aus Nanonisierung und Sprühtrocknung stellt prozesstechnisch zwei Herstellungsschritte dar und beeinträchtigt – neben der fundamentalen Problematik der Stabilisierung von Intermediaten – die Stabilität eines Wirkstoffes durch Flüssigkeitskontakt (Nassmahlung) und thermische Belastung (Sprühtrocknung). EMD 57033 verblieb bei Sprühtrocknungen kristallin und wies verglichen mit covermahlenen Formulierungen eine schwächere Auflösungsgeschwindigkeit auf. Eine Ausnahme bildete die Sprüheinbettung mit SLS, die jedoch in derPharmakokinetikstudie den Covermahlungen unterlegen war (relative Bioverfügbarkeit 47%). Fenofibrat ging fast vollständig in den amorphen Zustand über und zeigte bei Freisetzung das typische Bild einer schnellen Rekristallisation. Fazit Im Gegensatz zu Wirkstoffmikronisierungen oder Sprühtrocknungsverfahren können trockene Covermahlungen mit ausgewählten Hilfsstoffen universell das Ausmaß und die Geschwindigkeit der Auflösung schwerlöslicher Stoffe optimieren (vollständige Auflösung oder Sättigung erreicht). In Abhängigkeit von Wirk- und Hilfsstoffen werden sogar Übersättigungen erzielt, die auch in vivo in einer gesteigerten oralen Bioverfügbarkeit abgebildet werden können.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
Der Einsatz verschiedenster Substanzen, die die affektive, emotionale oder körperliche Befindlichkeit verändern, ist so alt wie die Menschheit selbst. Rauschmittel im weitesten Sinn werden seit alters her zur Linderung oder Heilung von Krankheiten, bei rituellen Zusammenkünften, zur Bewußtseinsveränderung oder -erweiterung oder einfach als Genußmittel eingesetzt. Als "grundlegende Funktionsbereiche des Drogengebrauchs" werden allgemein "religiöse, medizinische, hedonistische, soziale, kompensatorische, ökonomische und politische" genannt (Blätter, 1995, 279). Im Rahmen einer mehrjährigen Tätigkeit als Sozialpädagogin in einer Jugend- und Drogenberatungsstelle im "Drogenbrennpunkt" Frankfurt hatte ich Gelegenheit festzustellen, daß zumindest bei Heroinkonsumenten in Deutschland soziale und kompensatorische Aspekte gegenüber den anderen genannten Faktoren offensichtlich im Vordergrund stehen. Die häufig gehörte Einschätzung, es handele sich bei Drogenabhängigen um hedonistisch orientiertes "arbeitscheues Gesindel", das sich auf Kosten der Allgemeinheit einen "schönen Lenz mache", erweist sich spätestens dann als falsch, wenn man Gelegenheit erhält, Einblick in ihren hektischen und nicht selten auch mittelbar oder unmittelbar lebensbedrohlichen Alltag zu nehmen. ...
Der Fokus der Dissertation liegt auf der Betrachtung von Items zur Messung von fremdsprachlichem Leseverständnis in verschiedenen europäischen Ländern. Insbesondere wird der Einfluss unterschiedlicher Testkulturen auf die internationale Vergleichbarkeit und Validität dieser Items analysiert. Haupthypothese der Arbeit ist, dass sich Differentielle Item Funktionen (DIF, z.B. Holland & Wainer, 1993), eine durch Gruppenzugehörigkeit verursachte Varianz der Itemschwierigkeit, durch unterschiedliche Profile von Stärken und Schwächen von Gruppen im Hinblick auf sprachliche Teilaspekte vorhersagen lassen sollten. Dem liegt die Annahme zugrunde, dass in unterschiedlichen Bildungskulturen unterschiedliche Schwerpunkte bezüglich der unterrichteten sprachlichen Teilaspekte existieren. Ferner wird angenommen, dass sich dies auf den in einem Land konstruierten Testitems abbilden sollte, indem bestimmte schwierigkeitsbestimmende Charakteristika eines Items (z.B. Schwierigkeit von Vokabular/ Grammatik) mehr oder weniger häufig bei der Itemkonstruktion verwendet wurden. Signifikante Unterschiede dahingehend bei in unterschiedlichen Ländern konstruierten Items sollte demzufolge auf unterschiedliche testkulturelle Profile von Ländern hinweisen. Die Hauptfragestellung der Arbeit lautet: „Existiert ein Zusammenhang zwischen Differentiellen Item Funktionen und Indikatoren nationaler Testkulturen bei Aufgaben zur Messung des fremdsprachlichen Leseverständnissen in englischer und deutscher Sprache?“ Die Analysen wurden am Datensatz der europäischen EBAFLS-Studie (European Bank of Anchor Items for Foreign Language Skills; Fandel et al., 2007) durchgeführt. Im Rahmen der Studie wurden Daten an ca. 10.500 Schülern der 9.-11. Klasse in acht europäischen Ländern in den Sprachen Englisch, Deutsch und Französisch erhoben; die verwendeten Testitems stammten aus den verschiedenen Teilnehmerländern. Experten ordneten die Items hinsichtlich der verschiedenen Itemcharakteristika mit Hilfe des Kategorisierungsinstruments „Dutch Grid“ (Alderson et al., 2006) ein. Für diese Dissertation wurden die EBAFLS Items und Datensätze zur Messung des fremdsprachlichen Leseverständnissen für Englisch (Länder: Frankreich, Deutschland, Spanien, Ungarn) und Deutsch (Länder: Frankreich, Niederlande, Ungarn, Schweden) verwendet. In einem ersten Auswertungsschritt wurden zunächst für die Analysen notwendige Voraussetzungen überprüft: die Rasch-Skalierbarkeit der Items innerhalb der Länder, die Anzahl signifikanter DIF-Parameter zwischen den einzelnen Länderpaarungen, sowie das Vorhandensein unterschiedlicher testkultureller Profile der Teilnehmerländer im Sinne unterschiedlich häufig vorkommender Itemcharakteristika bei den in den unterschiedlichen Ländern konstruierten Items. Es zeigte sich, dass diese Voraussetzungen als gegeben angesehen werden konnten. Des Weiteren wurden anhand der unterschiedlichen testkulturellen Profile Hypothesen hinsichtlich der zu erwartenden Stärken und Schwächen der einzelnen Länder im Hinblick auf Items mit bestimmten kognitiv-linguistischen Charakteristika formuliert. Im zweiten Analyseschritt zeigten sich innerhalb aller Länder korrelative Zusammenhänge zwischen den ausgewählten Itemcharakteristika und der Itemschwierigkeit. Somit konnten die Itemcharakteristika auch für weitere Analysen, d.h. zur Erklärung von Unterschieden der Itemschwierigkeiten zwischen den Ländern, verwendet werden. Im dritten Auswertungsschritt wurden zunächst paarweise DIF-Parameter (zw. jeweils 2 Ländern) berechnet. Zur Analyse von Zusammenhängen zwischen DIF und den Itemcharakteristika wurden dann die Itemcharakteristika mit den DIF-Parametern korreliert sowie im Rahmen einer multiplen Regression als Prädiktoren für DIF eingesetzt. Die Korrelationen lagen zwischen r = -.47 und r = .47. Dabei bedeutet eine negativer Zusammenhang, dass dieses Item aus Sicht der Fokusgruppe eine im Vergleich zur Referenzgruppe niedrigere Itemschwierigkeit aufweist, und somit ein Zusammenhang zwischen einem Itemmerkmal und für diese Gruppe vorteilhaften DIF besteht, bzw. umgekehrt. In einem letzten Schritt wurde überprüft, inwieweit die Richtung der gefundenen Zusammenhänge mit den testkulturellen Profilen einhergeht. Kommt ein Itemmerkmal bei den Items der Fokusgruppe signifikant häufiger vor als beiden Items der Referenzgruppe, sollte dies mit einem negativen, d.h. vorteilhaften, Zusammenhang zwischen diesem Itemmerkmal und DIF einhergehen und umgekehrt. Es zeigte sich, dass 23 von 29 (Englisch) bzw. 25 von 34 (Deutsch) signifikanten Korrelationen ihrer Richtung nach den aufgrund der Testkultur aufgestellten Hypothesen entsprachen. Ferner konnte zwischen 21% und 49% der DIF-Varianz anhand von Prädiktoren erklärt werden, die ihrer Richtung nach den aufgrund der testkulturellen Profile gemachten Annahmen entsprachen. Die Hauptannahme, dass ein Zusammenhang zwischen Differentiellen Item Funktionen und Testkulturen existiert, konnte somit insgesamt beibehalten werden.
Im Mittelpunkt der vorliegenden Arbeit stehen das qualitative soziologische Interview und seine Auswertung. Hierzu werde ich die im Zusammenhang mit einem konkreten abgeschlossenen Forschungsprojekt geführten Interviews und deren Interpretation empirisch untersuchen. Die zentrale erkenntnistheoretische Basis besteht in der Vorstellung einer narrativen Konstruktion von Wahrheit sowie der Vorstellung von wissenschaftlicher Geltung im Allgemeinen und der Geltung dieser konkreten Auswertungen im Besonderen. ...