Refine
Year of publication
Document Type
- Doctoral Thesis (3548) (remove)
Language
- German (3548) (remove)
Has Fulltext
- yes (3548)
Is part of the Bibliography
- no (3548)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (9)
- Nanopartikel (8)
- Apoptosis (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
- USA (7)
Institute
- Medizin (1344)
- Biochemie und Chemie (445)
- Biowissenschaften (402)
- Pharmazie (237)
- Physik (212)
- Gesellschaftswissenschaften (95)
- Biochemie, Chemie und Pharmazie (90)
- Psychologie (66)
- Neuere Philologien (65)
- Kulturwissenschaften (64)
Hintergrund: Die Interaktion zwischen β-HCG und TSH in der Schwangerschaft stellt ein differentialdiagnostisches Problem dar, weil die Wertung von supprimierten TSH-Spiegeln erschwert wird. Dies kann im schlimmsten Fall zu Fehlinterpretationen führen. Ziel der vorliegenden Arbeit war, diese Interaktion an einem großen Kollektiv in einen zeitlichen Kontext mit dem Verlauf der Schwangerschaft zu bringen, da der Zeitpunkt des Screenings entscheidenden Einfluss auf die Höhe des TSH-Spiegels hat. Zusätzlich wurden anhand der vorliegenden Daten Referenzbereiche für Schwangere berechnet und der Einfluss einer Jodmedikation untersucht.
Patienten und Methoden: Aus einem unselektionierten Pool von Patientinnen eines nuklearmedizinischen Praxisverbundes wurden die Daten von 1283 schilddrüsengesunden Schwangeren zwischen 16 und 48 Jahren ausgewertet. Neben der TSH-Bestimmung lag ein Schwerpunkt auf dem zeitlichen Verlauf, so dass die Schwangeren in Untergruppen von je 2 Wochen analysiert wurden. Untersucht wurde der Einfluss der Jodmedikation auf die TSH-Werte. Am Ende erfolgte mit Hilfe der logarithmischen Transformation unter Verwendung der 2-Sigma-Grenzen die Bestimmung neuer TSH-Referenzbereiche für Schwangere.
Ergebnisse: Es zeigt sich zu Beginn der Schwangerschaft ein Anstieg der mittleren TSH-Werte von 1,22 mU/l in der 2. SSW bis auf 1,7 mU/l um die 7. SSW mit einem konsekutiven Abfall der TSH-Werte bis auf 0,9 mU/l bis zur 16. SSW (entsprechend 52,9%). Der größte Abfall findet sich in der 12. bis 14. SSW, also zum Zeitpunkt des ersten Screenings. Die Jodmedikation hat keinen maßgeblichen Einfluss auf den TSH-Wert. Die Berechnung schwangerschaftskorrigierter Referenzbereiche zeigt im ersten Drittel TSH-Werte von 0,08 – 3,67 mU/l, im 2. Drittel 0,04 – 2,88 mU/l und im 3. Trimenon 0,17 – 3,19 mU/l.
Schlussfolgerungen: Die Arbeit zeigt, dass die niedrigsten TSH-Werte zum Zeitpunkt des ersten Screenings zu erwarten sind und deswegen möglicherweise zu Fehlentscheidungen führen können. Ein relevanter Zusammenhang der Jodmedikation mit dem TSH-Wert lässt sich nicht nachweisen. Neue Referenzbereiche für Schwangere könnten hilfreich sein, dieses diagnostische Dilemma zu vermeiden.
Im ersten Teil dieser Arbeit wurde der Einfluss des HIV-Protease-Inhibitors Saquinavir und seines Derivates Saquinavir-NO auf die ABC-Transporter vermittelte Chemoresistenz in Tumorzellen untersucht. Saquinavir-NO zeigte in drei verschiedenen Tumorentitäten stärkere zytotoxische Wirkung als Saquinavir. Weder die Expression der ABC-Transporter MDR1 oder BCRP1 noch der zelluläre p53-Status hatten einen Einfluss auf die Zellsensitivität. MDR1-exprimierende chemoresistente Tumorzellen wurden durch Saquinavir-NO stärker gegen ausgewählte Zytostatika resensitiviert als durch Saquinavir. An chemosensitiven MDR1-negativen Zellen wurden keine Effekte beobachtet. Des Weiteren wurde die Neuroblastomzelllinie UKF-NB-3 mit Hilfe lentiviraler Vektoren mit cDNA für MDR1 transduziert. In diesem MDR1-transduzierten Zellmodell wurde die Sensiti-vität gegen das MDR1-Substrat Vincristin durch Saquinavir-NO stärker erhöht als durch Saquinavir. Am Durchflusszytometer wurde der Einfluss von Saquinavir und Saquinavir-NO auf die intrazelluläre Akkumulation des fluoreszierenden MDR1-Substrates Rhodamin 123 untersucht. In MDR1-exprimierenden Zelllinien führte Saquinavir-NO zu einer deutlich stärkeren Akkumulation von Rhodamin 123 als Saquinavir. In MDR1-negativen Zellen wurden keine Effekte beobachtet. Mit Hilfe des MDR1-ATPase-Assays und Wash-Out-Kinetiken am Durchflusszytometer wurde die Frage geklärt, ob Saquinavir und Saquinavir-NO als Substrate oder als allosterische Inhibitoren für MDR1 fungieren. Die Ergebnisse beider Assays lassen den Schluss zu, dass sowohl Saquinavir als auch Saquinavir-NO jeweils ein Substrat für MDR1 darstellen. Um den Einfluss von Saquinavir und Saquinavir-NO auf den ABC-Transporter BCRP1 zu untersuchen, wurde die Neuroblastomzelllinie UKF-NB-3 mit Hilfe lentiviraler Vektoren mit cDNA für BCRP1 transduziert. Die BCRP1-transduzierten Zellen wurden durch Saquinavir und Saquinavir-NO in vergleichbarem Ausmaß zu dem BCRP1-Substrat Mitoxantron sensibilisiert. Saquinavir-NO ist somit im Vergleich zu Saquinavir der deutlich potentere MDR1-Inhibitor, während beide Substanzen gleichermaßen BCRP1 beeinflussten. Im zweiten Teil dieser Arbeit wurde der Einfluss des MDM2-Inhibitors Nutlin-3 auf die ABC-Transporter-vermittelte Chemoresistenz in Tumorzellen untersucht. Nutlin-3 zeigte aufgrund seiner Funktion als MDM2-Inhibitor an Zellen mit Wildtyp-p53 stark zytotoxische Effekte. An Zellen mit einer p53-Mutation oder an Zellen, die p53-negativ sind, waren diese Effekte nicht zu beobachten. Die Behandlung mit Nutlin-3 führte in p53-Wildtypzellen zur Induktion diverser p53-Zielgene (p21, MDM2, GADD). In Zellen mit mutiertem p53 blieb diese Induktion nach Nutlin-3-Behandlung aus. Chemoresistente MDR1-exprimierende Tumorzellen wurden durch Nutlin-3 stark gegen ausgesuchte Zytostatika resensitiviert. Des Weiteren wurde die chemosensitive, p53-mutierte (Nutlin-3-insensitive) und MDR1-negative Rhabdomyosarkomzelllinie RH30 mit Hilfe lentiviraler Vektoren mit cDNA für MDR1 transduziert. In diesem MDR1-transduzierten Zellmodell wurde die Sensitivität gegen das MDR1-Substrat Vincristin durch Nutlin-3 stark erhöht. Am Durchflusszytomter zeigte sich in MDR1-exprimierenden Zellen durch Behandlung mit Nutlin-3 eine signifikant erhöhte intrazelluläre Akkumulation des fluoreszierenden MDR1-Substrates Rhodamin 123. In MDR1-negativen Zellen wurde dieser Effekt nicht beobachtet. Mit Hilfe des ATPase-Assays und Wash-Out-Kinetiken am Durchflusszytometer wurde die Frage geklärt, ob Nutlin-3 als Substrat oder als allosterischer Inhibitor für MDR1 fungiert. Die Ergebnisse beider Assays lassen den Schluss zu, dass Nutlin-3 ein Substrat für MDR1 darstellt. Nutlin-3 ist ein Racemat und wurde in allen Versuchen als solches verwendet. Das Enantiomer Nutlin-3a hemmt die MDM2-p53-Interaktion als aktives Enantiomer ca. 150-fach stärker als Nutlin-3b. Im letzten Schritt der vorliegenden Arbeit wurde Nutlin-3 in seine Enantiomere Nutlin-3a und Nutlin-3b aufgetrennt und beide Enantiomere wurden im Hinblick auf ihre Wirkung auf MDR1 untersucht. Dabei wurden keine Unterschiede zwischen den beiden Enantiomeren festgestellt. Nutlin-3a und Nutlin-3b interferieren demnach zu gleichen Teilen mit MDR1. Um den Einfluss von Nutlin-3 auf den ABC-Transporter MRP1 zu untersuchen, wurde mit zwei verschiedenen Zellmodellen gearbeitet. In beiden Zellmodellen zeigte sich, dass Nutlin-3 auch den MRP1-vermittelten Efflux der fluoreszierenden Substrate Rhodamin 123 und Calcein-AM inhibiert. Der Befund, dass Nutlin-3 mit der MDR1- und MRP1 vermittelten Chemoresistenz interferiert, ist neu und eine wichtige Information für die Bewertung der beginnenden klinischen Studien zur Untersuchung von Nutlin-3 als antitumorale Substanz.
Gegenstand der vorliegenden Arbeit war es die Hypothese, dass die chronische Rhinosinusitis auf eine immunologische Reaktion auf eingeatmete Pilzelemente zurückgehe, zu prüfen. An der Untersuchung nahmen 26 Patienten (medianes Alter: 47,1) und 6 Kontrollprobanden ohne nasale Entzündung (medianes Alter: 25) teil. Durch serologische Untersuchungen haben wir die CRS-Patienten in 35% Allergiker ohne und 19% mit Eosinophilie sowie 19% nicht-Allergiker ohne und 27% mit Eosinophilie mit eingeteilt. Mit einer verfeinerten Technik gelang es uns Pilze in nur 12% bei CRS-Patienten und in 17% bei der Kontrollgruppe mikrobiologisch nachzuweisen. Des Weiteren haben wir Pilzfragmente in 35% bei CRS-Patienten im Nasen-sekretausstrich gefunden, hingegen in keinem Fall in der Kontrollgruppe. Verteilt auf die CRS-Gruppen ergab sich folgendes Bild, wobei Kulturen und Ausstriche zusammen gezählt wurden: Bei 20% der Allergiker mit und bei 44% ohne Eosinophilie wurden Pilze im Nasenschleim nachgewiesen. In der Gruppe der nicht-Allergiker mit Eosinophilie konnten in 29% der Fälle Pilze gefunden werden. Bei 14% der Fälle wurden Pilze mit Allergic Mucin im Nasenschleim identifiziert. Nicht-Allergiker ohne Eosinophile wiesen in 20% der Fälle Pilze im Nasensekret auf. Folglich konnten wir nicht feststellen, dass bei nahezu jeder Untersuchungsperson Pilze im Nasenschleim sich nachweisen ließen. Bei den CRS-Patienten hatten 4% die Kriterien des EFRS-Krankheitsbildes erfüllt. Betrachtet man die Gruppe der nicht-Allergiker isoliert, so waren es dann 14%. Durch immunologische Serumuntersuchungen konnte ein signifikanter Unterschied (p  0,01) bezüglich der Gesamt-IgE-Werte zwischen der Kontroll- und der CRS-Patientengruppe festgestellt werden, allerdings ohne die übrigen zytologischen und histologischen Kriterien der AFS zu erfüllen. Der Gesamt-IgE-Wert bzw. Gesamt-IgE-Titer war ein hilfreicher Parameter zur Abgrenzung einer allergischen Komponente bei bestehender chronischer Rhinosinusitis, besaß aber keine Aussagfähigkeit über vorliegen einer AFS. Zudem wurde auch der pilzspezifische-IgE-Spiegel gemessen. Insgesamt resultierte bei 12% der CRS-Patienten ein positiver Nachweis von zirkulierenden pilzspezifischen IgEs im Serum. Ein Zusammenhang zwischen pilzspezifischen IgE und Eosinophilie mit Clusterbildung und Pilznachweis konnte in keinem Fall beobachtet werden. Mit Hilfe des biochemischen Entzündungsmarker ECP bestimmten wir die eosinophile Entzündungsaktivität im Nasensekret und im Serum. Die ECP-Konzentration im Nasensekret zeigte einen signifikanten Unterschied (p = 0,02) zwischen CRS- und der Kontrollgruppe auf, hingegen im Serum war der Unterschied geringfügig (p = 0,11). Für das Monitoring von Entzündungs-geschehen im Nasenschleim sind Analysen des Nasensekrets daher gegenüber Blutanalysen zu bevorzugen. Die ECP-Nasensekretwerte der CRS-Patienten ohne Nachweis von Pilzelementen im Ausstrich waren insgesamt ähnlich hoch verteilt wie die der mit Nachweis von Pilzelementen im Ausstrich. Somit bestand kein statistisch signifikanter Unterschied zwischen den ECP-Werten mit und ohne Pilznachweis im Nasensekret-ausstrich (p = 0,87). Das ECP im Nasensekret erscheint zum Screening der pilzassoziierten chronischen Rhinosinusitis ungeeignet. Die These, dass Pilze das ätiologische Agens der Polyposis nasi et sinuum oder gar der chronischen Sinusitis allgemein sind, ist weiterhin sehr kritisch zu werten. Da Pilze über potente Antigene verfügen, kann eine Verstärkung eines bereits bestehenden Entzündungsreizes nicht sicher ausgeschlossen werden. Die Ergebnisse dieser Arbeit weisen darauf hin, dass es möglich ist durch einfache pathomorphologische Verfahren eindeutige Informationen zum Vorkommen von Pilzen und eosinophile Zellen bereits im Ausstrich-Präparat zu erhalten. Bei Problemfällen kann der Hinweis auf ein positiven Pilzbefund in der Histologie wertvoll sein, da differentialdiagnostisch ein zusätzlicher potenzierender Entzündungsfaktor zu berücksichtigen ist. Es liegt dann an der Erfahrung des HNO-Arztes und dem klinischen Verlauf welche therapeutischen Optionen dann nützlich sind. Unklar bleibt weiterhin bis dato was das erste Signal bei der eosinophilen Entzündungsreaktion darstellt. Nach unseren Untersuchungen scheinen Pilze nicht primär in Frage zu kommen.
Ziel dieser Arbeit war es, zu prüfen, in welcher Art und Weise Kinder mentale Repräsentationen beim Lesen von Texten konstruieren. Ausgangspunkt der Konzeption dieser Arbeit war das Konstruktions-Integrations-Modell von Kintsch, das zu den am meisten rezipierten Textverstehensmodellen zählt. Ein zentraler Aspekt dieses Modells ist die Annahme der simultanen Speicherung von Textmaterial auf drei hierarchisch voneinander verschiedenen Ebenen mentaler Repräsentation. Genauer sind dies eine Oberflächenrepräsentation, in welcher der genaue Wortlaut und die exakte Struktur eines Textes abgebildet wird, eine propositionale Repräsentation, welche die im Text enthaltene Bedeutung wiedergibt, und schließlich die tiefste Art der Verarbeitung, das Situationsmodell. Hier wird die Textinformation mit relevantem Weltwissen verknüpft wird. Trotz der großen Akzeptanz des Modells und seiner Bedeutung im Bereich auch schulischer Textverstehensforschung, liegen Aussagen zu differentiellen Effekten nur in sehr begrenztem Umfang vor. Erste Hinweise auf entwicklungsabhängige Unterschiede, wie auch Unterschiede in Abhängigkeit von Eigenschaften der Person oder des Textes selbst liegen vor, bedürfen aber einer Erweiterung und erneuter Prüfung um zu einem stabilen und kohärenten Bild interindividueller Unterschiede zu gelangen. Die vorliegende Arbeit untersuchte drei Fragestellungen. Die erste Fragestellung bezog sich auf eine entwicklungsabhängige Veränderung in der relativen Nutzung der einzelnen Ebenen. Die zweite Fragestellung umfasste angenommene Effekte eines Zeitverlaufs auf die Stärke der Repräsentationen sowie die Möglichkeit einer Beeinflussung dieser Veränderungen durch den Einsatz einer behaltensfördernden Instruktion. Die dritte Fragestellung bezog sich auf den Effekt einer Auswahl personenbezogener Variablen auf die Ausprägung der Repräsentationsebenen. Insgesamt wurden die Fragestellungen mit zwei unterschiedlichen Textsorten, einem narrativen Text und einem Sachtext geprüft, um Unterschiede aufzudecken, die sich aus der Verarbeitung unterschiedlicher Textgenres ergeben. Die Fragestellungen wurden in einer Hauptuntersuchung geprüft. Zwei Vorstudien (Vorstudie 1: N = 56; Vorstudie 2: N = 133) dienten der Materialentwicklung und Erprobung erster Zusammenhänge. An der Hauptstudie nahmen 418 Schüler dritter, vierter und fünfter Jahrgangsstufen teil. Die Ergebnisse zeigten insgesamt eine Präferenz der situativen Repräsentation mit nur geringen altersabhängige Veränderungen. Auf eine Oberflächenrepräsentation ließ sich aufgrund der Ergebnisse nur bei einer Teilstichprobe der Viertklässler schließen. Insgesamt fiel es den Schülern erwartungsgemäß leichter, ein Situationsmodell für den narrativen Text im Vergleich zum Sachtext aufzubauen. Dieser Vorteil blieb auch über Zeitintervalle von 20 Minuten bzw. drei Tagen stabil, während sich eine erwartete Veränderung innerhalb der Ebenen nicht abbildete. Von erneutem Lesen konnten die Kinder kurzfristig für den Aufbau aller Ebenen beim Bearbeiten des Sachtextes profitieren. Als ein Prädiktor, der die Ausprägung der situationalen Ebene neben der Textsorte vorhersagen konnte, war der Wortschatz der Kinder. Allgemeine Leseverständiskompetenz zeigte positive Zusammenhänge zur propositionalen Verarbeitungsebene.
Überprüfung der psychometrischen Parameter von CBCL 1 1/2-5 und C-TRF an einer deutschen Stichprobe
(2003)
Der Elternfragebogen (CBCL 11/2-5) und der Erzieherfragebogen (C-TRF) über das Verhalten von Klein- und Vorschulkindern sind die ersten deutschen Fassungen der von Achenbach 1997 modifizierten CBCL/2-3 (Achenbach, 1992), die von der Arbeitsgruppe Deutsche Child Behavior Checklist 1993 bereits übersetzt wurde. Beide Verfahren dienen der Erfassung von psychischen und emotionalen Auffälligkeiten von Klein- und Vorschulkindern im Alter von 11/ 2 bis 5 Jahren. Das Anliegen der vorliegenden Arbeit besteht zum einen in der Überprüfung der psychometrischen Güte der deutschen Version, zum anderen der Anwendbarkeit der Instrumente im deutschen Sprachraum. Zur Überprüfung der CBCL 1 1/2-5 diente eine gemischte Stichprobe von insgesamt 246 Kindern. 175 Bögen der Feldstichprobe wurden von Eltern in einer Kinderarztpraxis und verschiedenen Kindergärten ausgefüllt, 71 Beurteilungen in verschiedenen klinischen Einrichtungen, in denen Eltern ihre Kinder wegen Verhaltensauffälligkeiten vorgestellt haben. Die Stichprobe zur Überprüfung der C-TRF umfasst 176 Erzieherbeurteilungen aus verschiedenen Kindergärten und -krippen in und um Frankfurt/Main. 62 Kinder wurden gleichzeitig von Eltern und Erzieherin beurteilt. Bis auf wenige Ausnahmen zeigen die Reliabilitätsanalysen von CBCL 1 1/2-5, sowie C-TRF der hier vorliegenden deutschen Version gute interne Konsistenzen, die vergleichbare Werte mit der amerikanischen Originalstichprobe aufweisen. Lediglich die Skalen "Emotional Reaktiv" und "Körperliche Beschwerden" sind eher niedrig und sollten deshalb mit Vorsicht in die Einzelbewertung einfließen. Die gute Validität der CBCL 1 1/2-5 bestätigt sich durch die hochsignifikante Diskriminination der einzelnen Skalenrohwerte zwischen Feld- und Klinikstichprobe. Auch die Aufteilung der Klinikstichprobe in verschiedene Diagnosegruppen zeigte signifikante Unterschiede. Die Korrelation zwischen CBCL 1 1/2-5 und C-TRF, in denen von Eltern und Erzieherin das gleiche Kind beurteilt wurde, liegen im üblichen Bereich und stimmen weitgehend mit der amerikanischen Stichprobe überein. Insgesamt sind die aus den verschiedenen Stichproben ermittelten Mittelwerte und Standardabweichungen der CBCL 1 1/2-5 und der C-TRF vergleichbar mit der amerikanischen Originalstichprobe. Diese Ergebnisse sprechen dafür, dass die amerikanische Normierung ohne die Gefahr größerer Verfälschungen auch im deutschen Sprachraum angewandt werden kann, bis Normwerte an einer entsprechend repräsentativen Stichrobe vorliegen.
Glutamat ist der häufigste Neurotransmitter im menschlichen Hirn. Die Konzentration des Glutamats in der extrazellulären Flüssigkeit wird durch Glutamat-Transporter (Sekundärtransporter) kontrolliert. Liegt es in zu hoher Konzentration im synaptischen Spalt vor, kommt es zur Schädigung von Nervenzellen, ein Prozess, der als Exzitotoxizität bezeichnet wird. Eine Fehlfunktion oder fehlerhafte Produktion der Glutamat-Transporter im zentralen Nervensystem wird bei verschiedenen Krankheiten, wie der amyotrophen Lateralsklerose, der Ischämie, der Epilepsie, der Schizophrenie und der Alzheimer-Krankheit vermutet. Ziel dieser Arbeit war die Funktions- und Strukturanalyse der Glutamat-Transporter GLT-1 aus Rattus norvegicus und GltP aus E. coli, um die Familie der Glutamat-Transporter und die Entstehung der mit diesen Transportern in Verbindung gebrachten Krankheiten besser zu verstehen. Um die für diese Analysen gebrauchten Mengen an Protein herzustellen, mussten die Proteine heterolog produziert werden, da sie in natürlichen Geweben nicht in ausreichender Menge vorkommen. In dieser Arbeit wurde Glutamat-Transporter GLT-1 aus Rattus norvegicus funktional mit dem Semliki Forest Virus Expressionssystem überproduziert. Dazu wurden verschiedene Vektorkonstrukte hergestellt. Die routinemäßige Überproduktion des Transporters wurde im 8 l - Maßstab durchgeführt. In Zellen, die für die Produktion von GLT-1 mit rekombinanten, aktiven SF-Viren infiziert wurden, konnte eine sehr hohe Aktivität des Glutamat-Transporters nachgewiesen werden. Die Menge des hergestellten GLT-1 wurde in Bindungsexperimenten mit (2S,4R)-4-Methylglutamat quantifiziert: jede Zelle enthielt 3,5 x 106 Transporter: 61,04 pmol GLT-1/mg Gesamtprotein. Das entspricht einer Ausbeute von etwa 2-3 mg/8 l Zellkultur. Die hier durchgeführte Überproduktion des GLT-1-Glutamat-Transporters ist die erste Überproduktion eines eukaryotischen Sekundärtransporters mit dem Semliki Forest Virus Expressionssystem, bei dem große Mengen an aktivem Protein hergestellt werden konnten. Zudem ist die Ausbeute an funktionalem GLT-1 mit 61 pmol/mg Gesamtprotein verglichen mit den in der Literatur vorliegenden Daten zur Überproduktion eukaryotischer sekundärer Transporter mit anderen Expressionssystemen die höchste, die bis dato erreicht werden konnte. Der größte Anteil des heterolog produzierten GLT-1 war glykosyliert. Die gelelektrophoretische Analyse des aufgereinigten Transporters ergab zwei Banden, die ein apparentes Molekulargewicht von etwa 70-75 kDa und etwa 53-58 kDa hatten. In einer Western-Blot-Analyse konnten beide Banden des GLT-1-Transporters mit einem anti-His-Antikörper und einem anti-GLT-1-Antikörper nachgewiesen werden. Durch Deglykosylierung mit PNGase F und einer Trennung beider Banden durch Lektin-Affinitätschromatographie konnte gezeigt werden, dass es sich bei der 70-75 kDa-Bande um die glykosylierte Form und bei der 53-58 kDa-Bande um die nicht glykosylierte Form des Glutamat-Transporters handelte. Es wurde gezeigt, dass zwischen der Aktivität des GLT-1 und dessen Glykosylierung kein Zusammenhang besteht. Denn beide Formen lagen als vollständige, funktionale Transporter vor und transportierten nach Rekonstitution in Liposomen Glutamat. Der prokaryotische Glutamat-Transporter GltP aus E. coli wurde in dem E. coli-Stamm C43 (DE3) überproduziert. Die Ausbeute war etwa 2 mg pro Liter Kultur. Die Funktionalität des Transporters nach Rekonstitution in Lipidvesikel wurde durch spezifische Aufnahme von Glutamat gezeigt. Für die Solubilisierung beider Transporter aus den Zellmembranen wurden verschiedene Detergentien getestet. GltP ließ sich am besten mit DM oder DDM aus der Membran extrahieren, für die Solubilisierung des GLT-1 wurde mit großer Effizienz DDM oder CYMAL-7 eingesetzt. GltP und GLT-1 wurden mit einer Ni2+-NTA-Affinitätschromatographie in großer Menge und hoher Reinheit angereichert werden. Die Aufreinigungsprozedur beeinträchtigte nicht die Funktionalität des prokaryotischen GltP. Bei dem eukaryotischen Transporter GLT-1 war nach der Ni2+-NTA-Säule keine Transportaktivität mehr messbar. Durch Zusatz von Asolectin in den Wasch- und Elutionspuffern während der Aufreinigung konnte die Funktionalität des Transporters jedoch erhalten werden. Aufreinigungen mit anderen Lipiden unter anderem in Kombination mit Cholesterin lieferten einen Glutamat-Transporter, der in seiner Konformation stabilisiert, jedoch nach Rekonstitution nicht aktiv war. Eine weitere Steigerung der Ausbeute an aktivem GLT-1 konnte durch den Einsatz von Reduktionsmitteln, wie DTT oder b-Mercaptoethanol, die die Aggregation des Transporters verhinderten, erreicht werden. GltP katalysiert den elektrogenen Transport von Glutamat bzw. Aspartat unter Symport von mindestens zwei Protonen. GLT-1 transportiert ein Molekül Glutamat zusammen mit drei Na+-Ionen und einem Proton im Austausch gegen ein K+-Ion. Durch Transportmessungen konnte der hochspezifische Glutamat-Transport der aufgereinigten Transporter belegt werden. Der Glutamat-Transport des in Liposomen rekonstituierten GltP zeigte eine klare Abhängigkeit von einem anliegenden Protonengradienten. Aufgereinigtes und rekonstituiertes GLT-1 transportierte nur Aspartat bzw. Glutamat, wenn ein Na+ und ein K+-Gradient vorhanden waren. Die Aspartat- bzw. Glutamat-Aufnahme konnte bei beiden Transportern durch den kompetitiven nichttransportablen Inhibitor (2S,4R)-4-Methylglutamat blockiert werden. Der Assoziationsgrad der Glutamat-Transporter GltP und GLT-1 und das Gleichwicht zwischen den verschiedenen oligomeren Zuständen wurde in dieser Arbeit eingehend mit biochemischen Methoden untersucht: 1. „Cross-linking“-Studien, 2. Blaue Nativgelelektrophorese, 3. Analytische Ultrazentrifugation, 4. Laserlichtstreuung, 5. Gelfiltrationschromatographie. Die dabei erhaltenen Ergebnisse bewiesen eine tetramere Assoziierung beider Proteine. Die Gelfiltrationsexperimente zeigten, dass die Transporter in Detergenzlösung in unterschiedlichen Assoziationsgraden vorliegen. Das Gleichgewicht zwischen den oligomeren Formen war reversibel und abhängig von der Art und Konzentration des Detergenz, der Proteinkonzentration und der Temperatur. Zur Untersuchung der Struktur der Glutamat-Transporter wurden vor allem mit GltP zahlreiche 2D-Kristallisationsexperimente durchgeführt. Trotz Variation aller denkbar möglichen Parameter konnten keine Kristalle erhalten werden. Das beste Ergebnis war ein guter Einbau des Proteins in Lipidvesikel (etwa 80%). Da keine Kristalle erhalten wurden, wurde für beide Proteine eine Einzelpartikelanalyse durchgeführt. Dabei wurde nach zweidimensionaler Alignierung und Klassifizierung die „random conical tilt“-Methode angewendet. Die daraus resultierenden dreidimensionalen Dichtekarten des GltP und GLT-1 waren sehr ähnlich und wiesen vier nicht exakt symmetrische Massen in annähernd quadratischer Anordnung auf. Die Auflösung war 26 Å bzw. 36 Å. Die Größe der Einzelpartikel (für GltP: Höhe 37 Å, Breite 75 Å bzw. 86 Å, Länge 100 Å). ihre annähernd quadratische Anordnung und ihre Symmetrie lassen vermuten, dass es sich dabei um Tetramere der Glutamat-Transporter handelt, die aus zwei nicht symmetrischen Dimeren zusammengesetzt sind. Die hier präsentierten Daten sind die ersten zur dreidimensionalen Struktur von Glutamat-Transportern. Schließlich wurde nachgewiesen, dass der in BHK-Zellen heterolog exprimierte Glutamat-Transporter GLT-1 vorwiegend in „lipid rafts“ lokalisiert ist. Die Größe der „rafts“, die anhand der Größe der „Proteininseln“ in Gefrierbrüchen bestimmt wurde, war etwa 200 nm im Durchmesser. Die „GLT-1-Inseln“ bzw. „lipid rafts“ konnten durch das teilweise Entfernen von Cholesterin aus der Membran zerstört werden. Damit ging eine Reduktion der Glutamat-Transporter-Aktivität von etwa 20% einher. Es ist das erste Mal, dass „lipid rafts“ durch die natürliche Assemblierung von Proteinen mit Hilfe von Gefrierbruchanalysen und Elektronenmikroskopie beobachtet wurden.
In dieser Studie wurden Patienten untersucht, die einen malignen Hirninfarkt erlitten hatten und mit Hilfe der dekompressiven Hemikraniektomie behandelt wurden. Es wurden die funktionelle Beeinträchtigung, die Körperbehinderung und die Lebensqualität untersucht. Die Patienten wurden sechs Monate nach dem Ereignis kontaktiert, um eine Nachuntersuchung durchzuführen. Dabei wurden die Patienten bezüglich ihrer Beeinträchtigung, Körperbehinderung und Lebensqualität beurteilt. Die Studie beinhaltete 36 Patienten. Daraus resultiert eine Überlebensrate von 64%. Bei 10 Patienten wurde die Beeinträchtigung mit dem Barthel Index mit 50 Punkten beurteilt. In drei Fällen betrug der BI 90 Punkte. Die Mehrheit der Patienten (12) zeigte ernste Beeinträchtigungen (BI<50). Die Behinderung korrelierte negativ mit dem Patientenalter. 16 Patienten waren nicht in der Lage zu gehen und benötigten bei der täglichen Arbeit Hilfe, was einen mRS von 4 oder 5 Punkten entspricht. Keiner der Patienten erreichte einen unabhängigen Status. Patienten, die eine höhere BI-Punktezahl hatten, waren signifikant jünger, hatten weniger schwere Beeinträchtigungen bei der Krankenhausaufnahme, wurden kürzer mechanisch ventiliert und verließen die Intensivstation früher. Die Schwere der Angst oder der Depression korrelierte dabei signifikant mit der Schwere der Behinderung. Die dekompressive Hemikraniektomie verbessert die Überlebensrate dramatisch, reduziert aber nicht die Größe des Infarktvolumens. Die Mehrzahl der Patienten wurde durch den Infarkt deutlich in ihrem Leben beeinträchtigt. Insgesamt ist die Lebensqualität reduziert.
Schon zu Beginn der Schizophrenieforschung ist man immer wieder auf Fälle gestoßen, die sich nicht oder nur schwer kategorisieren ließen. So erkannte bereits Kraepelin (1920) das Problem von Symptomkonstellationen, die sich nicht eindeutig in sein dichotomes Modell von „Dementia praecox“ und „manisch-depressivem Irresein“ (1896) einfügten. Es handelte sich um Patienten, die schizophrene Symptome und affektive Störungen im Wechsel oder aber auch gleichzeitig aufwiesen. In den folgenden Jahren gab es viele Bezeichnungen für derlei Phänomene. Es wurde von „Mischpsychosen“, einem „intermediären Bereich“ oder von „atypischen Psychoseformen“ gesprochen. Kurt Schneider (1980) bezeichnete sie als „Zwischenfälle“, Kasanin (1933) prägte den heute verwandten Begriff der „schizoaffektiven Psychosen“. Betrachtet man nun Langzeitverläufe über viele Jahre, so können in einigen Fällen Übergänge von der einen in die andere nosologische Entität beobachtet werden. Häufiger und besser belegt handelt es sich um Syndromwechsel von einer primär affektiven Störung hin zu einer schizophrenen Psychose. Wobei Marneros (1991) im Rahmen seiner großen Langzeitstudie, die den Verlauf affektiver, schizoaffektiver und schizophrener Psychosen miteinander vergleicht, deutlich darauf hinweist, dass sich keine typische Richtung eines Syndromwechsels oder Bevorzugung eines bestimmten Verlaufs belegen lässt. In unserer katamnestisch Studie beschäftigen wir uns ausführlich mit fünf Langzeitverläufen, die einen Übergang einer eindeutig diagnostizierten Schizophrenie mit mehreren Schüben und Exarcerbationen in eine bipolare Störung zeigen. Es handelt sich um eine explorative Arbeit, die bei allen Patienten eine mehr als 20-jährige Krankheitsgeschichte beleuchtet. Im Mittelpunkt stand die Untersuchung vieler sorgfältig geführter Krankenakten, die sowohl Aufzeichnungen der behandelnder Psychiater und Pflegekräfte enthielten, als auch Zusatzmaterialien wie Briefe, Postkarten und Bilder umfassten. Als wesentliches Mittel zum Herausstellen des Syndrom wechsels bzw. des Strukturwandels diente uns die genaue Betrachtung der erlaufspsychopathologie. Ergänzt wurden unsere Beobachtungen bezüglich der Krankheitsverläufe durch eigene Einschätzungen und Beurteilungen der Patienten, die in einem freien Interview in den Jahren 2002 und 2003 erhoben wurden. In allen fünf Fällen war ein eindeutiger Wandel der Symptomatik zu erkennen, welcher als solcher auch von den untersuchten Patienten empfunden und in den Interviews eindrücklich beschrieben wurde. Es zeigte sich bei allen fünf männlichen Patienten mit einem durchschnittlichen Ersterkrankungsalter von 22,6 Jahren, dass die erste Manie im Durchschnitt nach 10,4 Jahren und eine erste Depression im Durchschnitt nach folgenden 8,2 Jahren auftrat. Da nach dem Syndromwechsel Symptome aus dem schizophrenen Formenkreis bis heute fehlen, lässt sich in unseren Fällen die Bezeichnung als schizoaffektive Psychose nicht halten. Es handelt sich also um einen Syndromwechsel im Sinne eines Entitätenwechsels, der über Jahre hinweg stabil bleibt. Auch der Ausgang der Erkrankung unterstreicht unsere Beobachtung. Bei allen Patienten ist sowohl subjektiv als auch objektiv ein positiver Ausgang festzustellen. Dieses Phänomen deckt sich mit den Ergebnissen der vielfältig durchgeführten Studien zum besseren Ausgang von affektiven als von schizophrenen Erkrankungen. Konsequenterweise führte eine Phasenprophylaxe mit Lithium in allen Fällen zu einem Behandlungserfolg. In der Literatur fehlen bisher sorgfältig recherchierte und über viele Jahre belegte Krankheitsverläufe mit dem beschriebenen Strukturwandel der Erkrankung. Die Frage, womit ein solcher Übergang zusammenhängen könnte, kann derzeit nicht beantwortet werden. Diskutiert wird die Wirkung von Neuroleptika, hier vor allem deren depressiogene Potenz. Wenn man diese depressiogene Wirkung verantwortlich machen wollte, wäre nach dem Übergang in eine affektive Störung zunächst eine depressive Phase zu erwarten. Das Gegenteil ist bei unseren Patienten der Fall: alle unsere Patienten entwickelten nach einem durchschnittlichen Intervall von 10,4 Jahren zuerst eine Manie und dann im weiteren Verlauf eine Depression. Mit Hilfe eines psychodynamischen Erklärungsversuches könnte der Strukturwandel als ein Prozess verstanden werden, der dazu diente, der drohenden Ich-Destruktion und – Fragmentierung entgegenzuwirken und über Jahre zur Entwicklung eines höheren psychischen Strukturniveaus der Patienten geführt hat. Es bleibt in jedem Fall festzuhalten, dass weitere Studien auf dem Forschungsgebiet des Syndromwechsels wünschenswert wären, um dem Wesen des Wandels und auch der damit verbundenen klinisch relevanten therapeutischen Konsequenzen näherzukommen.
Die vorliegende Arbeit beschäftigt sich mit der Modellierung der neuronalen Prozesse, die auditorischen Lokalisationsleistungen zugrunde liegen. Viele der hierzu aktuell diskutierten Modellvorstellungen lassen sich auf ein von L. Jeffress bereits in der Mitte des letzten Jahrhunderts vorgeschlagenes Netzwerkmodell zurückführen: Nach Jeffress werden interaurale Laufzeitunterschiede (ITDs) zwischen beiden auditorischen Pfaden in einem Netzwerk von Detektorneuronen (Koinzidenzdetektoren) ausgewertet. Systematische Laufzeitunterschiede resultieren aus der Architektur des Netzwerks, die sogenannte Delay-Lines realisieren soll. Trotz einer Reihe von Evidenzen für das im auditorischen Diskurs inzwischen als Paradigma geltende Modell, findet Kritik am Jeffress-Modell in jüngerer Zeit zunehmend Beachtung und Interesse. So argumentieren B. Grothe und D. McAlpine gegen die Übertragung des Delay-Line Modells auf die Verhältnisse bei Säugern. Zentrales Moment ihrer Kritik ist eine Afferenz der MSO aus einem weiteren Teilgebiet der Olive (MNTB). Wesentlicher Effekt der von der Projektion gebildeten inhibitorischen Synapse ist eine relative Verschiebung der Best-Delays der MSO-Zellen zur Präferenz contralateraler Delays. Damit besteht nicht nur zu der nach dem Jeffress-Modell notwendigen Aufteilung der Best-Delays ein Widerspruch, die ITDs liegen bei tiefen Frequenzen für kleine Säuger aufgrund deren geringer Kopfgröße außerhalb des Bereichs physiologisch auftretender Delays. In dieser Arbeit werden die Ergebnisse von Grothe und McAlpine durch Compartmental Modeling analysiert. Gegenüber einer Simulationsstudie aus den Gruppen von Grothe und McAlpine werden von uns durch explizite Modellierung der Dendriten zusätzliche Effekte der Inhibiton beschrieben. Wir stellen dar, wie die Topographie von Inhibiton und Excitation die Verarbeitungsprozesse in Bipolar-Zellen durch dendritische Low-Pass Filterung und Kontrastverst ärkung zwischen minimaler und maximaler Spikerate unterstützt. Unsere Ergebnisse können die empirisch nachgewiesene Verteilung excitatorischer (distaler) und inhibitorische (proximaler) Synapsen erklären. In der abschliessenden Analyse der von den Bipolar-Zellen generierten Spike Trains wird das von Grothe und McAlpine entworfene alternative ITD-Codierungsmodell auf der Basis von Ratencodes problematisiert: Bislang erklärt ihr Vorschlag nicht, wie organismische Lokalisationsleistungen auf der Basis weniger Spikes realisiert werden können.
Bei der chronisch venösen Insuffizienz (CVI) handelt es sich um einen im Bereich der unteren Extremität lokalisierten varikösen Symptomenkomplex bestehend aus Beschwerden wie Schmerzen, Schwere-, Spannungsgefühl, Juckreiz uvm. Dazu kommen stadienabhängig trophische Hautveränderungen, bedingt durch veränderte Kapillarmorphologie und -dichte. Diese Veränderungen können, je nach Ausprägungsgrad, von Hyperpigmentation über Dermatitis, Corona phlebectatica paraplantaris, Atrophie blanche bis hin zum floriden Ulcus cruris venosum reichen.
In der Bundesrepublik Deutschla nd leiden ca. 10-15 Millionen Menschen an einer manifesten CVI. Der CVI kommt aufgrund ihrer hohen Prävalenz eine hohe sozialmedizinische und sozialökonomische Bedeutung zu. Der pathophysiologische Mechanismus, der der CVI zugrunde liegt, ist bei Hinzukommen von begünstigenden Faktoren, z.B. Orthostasebelastung, in der Entwicklung von insuffizienten Venenabschnitten oder Insuffizienzpunkten im Bereich der Venenklappen oder anderen am Rücktransport des Blutes zum Herzen beteiligten Mechanismen zu suchen.
Eine Vielzahl von Therapieverfahren, wie etwa operative Eingriffe und Sklerosierungen, sind auf die Ausschaltung dieser Insuffizienzpunkte ausgerichtet. Diese Verfahren sind gründlich erforscht und durch klinische Studien wohldokumentiert. Ihre Grenzen liegen zum einen in möglichen Nebenwirkungen, zum anderen in der grundlegend chronisch degenerativen Natur der Erkrankung, deren Ursachen durch solche Therapieformen nicht erfasst werden.
Andere, nicht invasive und meist physikalische Therapieformen zielen auf eine Verbesserung der subjektiv empfundenen Lebensqualität ab. So ist etwa die Wirksamkeit von kalten hydrotherapeutischen Anwendungen wie Knie- oder Beingüssen, Wassertreten, Lehm-Wadenwickeln oder wechselwarmen Anwendungen nach Kneipp auf die subjektiven Beschwerden mehrfach beschrieben und in evidenten Studien belegt worden.
Wie es sich in diesem Zusammenhang mit der Wirksamkeit kalter Lehmpackungen, so wie sie als ortsgebundenes Heilmittel in Kurbädern Anwendung finden, verhält, ist hingegen bis dato nicht systematisch ergründet worden. Um diesen Mangel zu beheben, wurde die vorliegende randomisierte, kontrollierte Studie zur Wirksamkeit von kalten Lehmpackungen auf die Beine von CVI-Patienten entworfen. In dieser Studie wurden zum einen die Wirkungen dieser Behandlungsform auf die subjektiv erfassten Größen Lebensqualität, Schmerzen und Stauungsbeschwerden ermittelt, unter Anwendung des SF (short form) 36-Fragebogens und der visuellen Analogskala (VAS). Als Hauptzielgröße wurde die subjektiv empfundene Lebensqualität gewählt. Zum anderen wurden die objektiven Messparameter Knöchel-, Wadenumfang, transkutan gemessener Sauerstoffpartialdruck und die venöse Wiederauffüllzeit als Nebenzielgrößen erfasst.
Im direkten Anschluss an die Therapie lassen sich signifikante Verbesserungen der subjektiven Messparameter verzeichnen. Diese fallen bei den krankheitsspezifischen Faktoren und im körperlichen Lebensqualitätsprofil deutlicher aus als im psychischen Lebensqualitätsprofil. Innerhalb des körperlichen Lebensqualitätsprofils wiederum zeigen sich die deutlichsten Verbesserungen bei der körperlichen Rollenfunktion, gefolgt von den körperlichen Schmerzen. Das psychische Lebensqualitätsprofil weist die deutlichste Verbesserung bei der emotionalen Rollenfunktion auf. Diese Ergebnisse lassen sich in der vorliegenden Kombination vor dem Hintergrund der Beobachtungen erklären, dass zum einen die CVI eine chronisch degenerative körperliche Erkrankung ist, deren Effekte sich vornehmlich in körperlichen und psychischen Funktionalitätseinbußen manifestieren, und dass sich zum anderen das Patientenkollektiv der Studie durch fortgeschrittenes Alter und einen insgesamt unterdurchschnittlichen gesundheitlichen Allgemeinzustand auszeichnet. Alter und gesundheitlicher Allgemeinzustand wiederum gehen in erster Linie mit dauerhaft empfundenen Beeinträchtigungen der körperlichen und psychischen Rollenfunktionen einher. Durch die Lehmpackungen gelingt nun eine Reduktion der Schmerzen und anderer Beeinträchtigungen der körperlichen Befindlichkeit (Schweregefühl, Juckreiz). Diese Verbesserungen machen es dem Patienten möglich, seine an ihn gestellten Rollenerwartungen besser zu erfüllen.
Die erreichten positiven Effekte auf die subjektiven Parameter tendieren nach drei Monaten wieder in Richtung Ausgangswert, ohne diesen jedoch zu erreichen, so dass sich eine gewisse Nachhaltigkeit des Therapieeffektes zeigt. Die objektiven Messparameter tendieren in Richtung einer Verbesserung (Ausnahme: venöse Wiederauffüllzeit rechts), erreichen jedoch kein hinreichendes Signifikanzniveau. Um diesbezüglich ein aussagekräftiges Ergebnis zu erhalten, wären ggf. eine Vergrößerung der Stichprobe und andere bzw. verfeinerte Messmethoden angebracht.
Das Ziel dieser Arbeit wurde eingangs über den Begriff der erweiterten Schließung der optischen und mikrophysikalischen Eigenschaften der Partikel definiert. Hierunter versteht man das Zusammenfügen von verschiedenen Messungen zu einem konsistenten Bild der betrachteten Partikeleigenschaften. Darüber hinaus sollen die Messungen auch in anderen Teilgebieten der Aerosolphysik verwendbar sein, um so das konsistente Bild zu erweitern. Dieses so umschriebene Ziel konnte für die mikrophysikalischen und optischen Messergebnisse, die während des LACE 98 Experimentes, einem vom Bundesministerium für Forschung und Bildung (Bmb f) geförderten Schließungsexperiment, in Lindenberg (Brandenburg) rund 50 km südöstlich von Berlin im Juli und August 1998 erfasst wurden, erreicht werden. Die Messungen wurden erfolgreich zu einem konsistenten Datensatz und einem "Bild" der Partikeleigenschaften zusammengefügt. Unter dem Begriff "Bild" subsummiert sich hierbei nicht nur eine Charakterisierung der Variabilität und Abhängigkeit der Partikeleigenschaften, z.B. von der rel. Luftfeuchte, sondern darüber hinaus auch eine Charakterisierung der Beeinflussung verschiedener von den Eigenschaften der Partikel abhängiger Größen. Hierzu zählen Strahlungshaushaltsgrößen (Erwärmungsrate der Luft durch Absorption solarer Strahlung und die Volumenabsorption solarer Strahlung durch Partikel), wolkenphysikalische Größen (maximale Übersättigung der Wolkenluft während der Wolkenentstehung und Anzahlkonzentration der wachsenden Wolkentropfen), die massengewichtete mittlere Sedimentationsgeschwindigkeit von Partikeln und nicht zuletzt gesundheitsrelevante Größen, wie z.B. die vom Menschen beim Atmen aufgenommene und eingelagerte Partikelmasse. Nachfolgende Zusammenstellung soll nochmals die erzielten Ergebnisse zusammenfassen. Für eine detaillierte Darstellung der in den einzelnen Kapiteln erzielten Ergebnisse soll hier nur auf die jeweiligen Zusammenfassungen der einzelnen Kapitel verwiesen werden. . Im Rahmen der direkten Schließung, wurden unterschiedliche Verfahren zur Bestimmung der optischen Eigenschaften der Partikel erfolgreich miteinander verglichen. Beteiligt waren bei diesem Vergleich folgende Methoden: Partikel im trockenen Zustand: -- Aerosolphotometer (alle optischen Eigenschaften, ) -- Nephelometer (Streukoeffizient) -- PSAP (Absorptionskoeffizient) -- IPMethode (Absorptionskoeffizient) -- Telephotometer (Extinktionskoeffizient) Partikel bei Umgebungsfeuchte: -- Telephotometer (Extinktionskoeffizient) -- horizontales Lidar (Extinktionskoeffizient) Es zeigte sich, dass sich das Aerosolphotometer mit seinem schon aus der Theorie des Messverfahrens her begründeten konsistenten Satz aller optischen Eigenschaften als Referenzmethode während LACE 98 bewährte. Mit seiner Hilfe konnte nun auch die Gültigkeit einer empirischen Korrektur des PSAP nach Bond et al. [1999] für natürliche Aerosolpartikel bestätigt werden. Dem Anwender dieses Gerätes, das mit einer hervorragenden zeitlichen Auflösung von wenigen Minuten den Absorptionskoeffizienten bestimmt, stehen somit zwei unabhängig voneinander gewonnene Kalibrierungsfunktionen zur Verfügung, die innerhalb der Fehlergrenzen auch mit einander im Einklang stehen. . Im Rahmen der indirekten Schließung wurde ein Modell entwickelt, mit dem auf Basis eines Kugelschalenmodells der Partikel aus Messungen der mikrophysikalischen Eigenschaften der Partikel den Extinktions, den Streu- und den Absorptionskoeffizienten sowie die Single Scattering Albedo berechnet wurden. Mit Hilfe dieses Modells wurde der Feuchteeffekt der oben genannten optischen Eigenschaften berechnet. Mit diesen Ergebnissen konnten dann die Messwerte des Telephotometers feuchtekorrigiert, und mit den Messungen des Aerosolphotometers verglichen werden, wo bei eine gute Übereinstimmung der Messreihen festgestellt werden konnte. Die beobachteten Unterschiede konnten auf Ernteaktivitäten, die nur die Messungen des Telephotometers beeinflussten, zurückgeführt werden. Ein Vergleich der mit Hilfe des Modells auch direkt berechenbaren optischen Eigenschaften mit den direkten Messwerten der beteiligten Verfahren fiel ebenfalls positiv aus. Anhand aller Modellrechnungen wurde eine physikalisch motivierte Näherungsfunktion für den Feuchteeffekt des Extinktions- und des Streukoeffizienten als Funktion des Aktivierungsparameters bereit gestellt. In Klimamodellen kann mit Hilfe der vorgestellten Näherungsfunktionen der Feuchteeffekt auf einfache Weise parametrisiert werden. Wenn man allerdings konkrete Messergebnisse miteinander vergleichen möchte, ist man auf eine vollständige Erfassung der mikrophysikalischen Eigenschaften der Partikel angewiesen. . Im Teil IV der Arbeit wurden auf der Basis des zuvor vorgestellten Datensatzes und der hierfür entwickelten Verfahren (Algorithmen) weitere Auswertungen zu unterschiedlichen, für die Meteorologie interessanten Themengebieten, vorgestellt und ihre Ergebnisse charakterisiert. . In Kapitel 6.1 wurde mit Hilfe von Auswertegleichungen aus den in dieser Arbeit erstellten Messungen des Sieben-Sensor-Bilanzphotometers und den Messungen des Aerosolphotometers die Volumenabsorptionsrate solarer Strahlung der bodennahen Partikel und die daraus resultierende Erwärmungsrate der Luft berechnet. Die Ergebnisse wurden mit Literaturwerten anderer Messkampagnen verglichen. Insbesondere konnte ein interessantes Ergebnis von Hänel
Die thermische Zersetzung von Vitriolen MIISO4 H2O (M = Fe, Mn, Co, Ni, Zn und Mg) und von anderen Sulfathydraten wurde untersucht, um zu klären, ob sie für die Entdeckung der Schwefelsäure und deren Gewinnung nach dem früher üblichen Verfahren der Vitriolbrennerei in Betracht kommen. Eisenvitriol wird beim Erhitzen entwässert, durch Luft oxidiert und zerfällt bei etwa 550°C in ein Eisen(III)-oxidsulfat der wahrscheinlichen Zusammensetzung Fe16O9(SO4)15, aus dem bis 650°C alles Schwefeltrioxid abgespalten wird. Bei diesen Temperaturen zerfällt nur ein kleiner Teil des Schwefeltrioxids in Schwefeldioxid und Sauerstoff. Alle anderen Vitriole zersetzen sich erst bei 800-850°C vollständig, d.h. unter Bedingungen, unter denen überwiegend Schwefeldioxid gebildet wird. Die partielle Oxidation von Mangan und Cobalt, durch die Mn3O4 bzw.Co3O4 entstehen, findet ebenfalls bei 600-700°C statt. Die Zersetzung von Aluminium- und Eisen(III)-sulfat beginnt bei niedrigen Temperaturen und ist beim Eisen(III)-sulfat bei 600-700°C abgeschlossen. Aluminiumsulfat wird aber erst bei über 800°C vollständig zersetzt. Die Untersuchung der Zersetzungsreaktionen ließ verschiedene Zwischenprodukte erkennen, insbesondere Oxidsulfate, von denen einige – wie Fe16O9(SO4)15 – näher charakterisiert wurden. Die Schwefelsäure ist wahrscheinlich beim Erhitzen von Eisenvitriol entdeckt worden, der schon seit der Antike bekannt war. Mehrere Vorschriften zum Erhitzen von Eisenvitriol allein oder im Gemisch mit anderen Sulfaten sind aus der arabischen Alchemie des frühen Mittelalters bekannt. In Europa erscheinen solche Vorschriften im 13. Jahrhundert. Auch dem frühen technischen Verfahren seit dem 17. Jahrhundert lag die Zersetzung von Eisenvitriol unter Luftzutritt zu Grunde. Verunreinigungen durch andere Vitriole, insbesondere des Zinks und Mangans, haben vermutlich die Ausbeute verringert. Das neuere technische Verfahren, das bis 1900 betrieben wurde, ging von „Vitriolstein“ aus. Dieses Gemisch von Eisen(III)- und Eisen(II)-sulfat mit wenig Aluminiumsulfat und sehr geringen Mengen anderer Sulfate wurde durch Auslaugen von Vitriol- bzw. Alaunschiefer gewonnen. Welche Eisenverbindungen es enthielt, ist nicht sicher. Ihre Zersetzung lief aber wahrscheinlich ähnlich ab wie die von Eisen(III)-sulfat. Auch bei diesem Verfahren war der Eisensulfatgehalt des Rohstoffes entscheidend für den Erfolg.
In der vorliegenden Dissertation wird die Frage der Vereinheitlichung der Quantentheorie mit der Allgemeinen Relativitätstheorie behandelt, wobei entsprechend dem Titel der Arbeit der Beziehung der Grundbegriffe der beiden Theorien die entscheidende Bedeutung zukommt. Da das Nachdenken über Grundbegriffe in der Physik sehr eng mit philosophischen Fragen verbunden ist, werden zur Behandlung dieser Thematik zunächst in einem Kapitel, das die vier jeweils drei Kapitel umfassenden Teile vorbereitet, die Entwicklung der Theoretischen Physik betreffende wissenschaftstheoretische Betrachtungen sowie einige wesentliche Gedanken aus der Klassischen Philosophie vorgestellt, welche für die weitere Argumentation wichtig sind. Bei letzteren geht es neben einer kurzen Schilderung der Platonischen Ideenlehre in Bezug auf ihre Relevanz für die Physik insbesondere um die Kantische Auffassung von Raum und Zeit als a priori gegebenen Grundformen der Anschauung, deren Bezug zur Evolutionären Erkenntnistheorie ebenfalls thematisiert wird. In den beiden ersten Teilen werden die wesentlichen Inhalte der Allgemeinen Relativitätstheorie und der Quantentheorie vorgestellt, wobei der Deutung der beiden Theorien jeweils ein Kapitel gewidmet wird. In Bezug auf die Allgemeine Relativitätstheorie wird diesbezüglich die Bedeutung der Diffeomorphismeninvarianz herausgestellt und in Bezug auf die Quantentheorie wird zunächst die Grundposition der Kopenhagener Deutung verdeutlicht, die im Mindesten als eine notwendige Bedingung zum Verständnis der Quantentheorie angesehen wird, um anschließend eine Analyse und Interpretation des Messproblems und vor allem entscheidende Argumente für die grundlegende Nichtlokalität der Quantentheorie zu geben. Im dritten Teil der Arbeit wird die seitens Carl Friedrich von Weizsäcker in der zweiten Hälfte des letzten Jahrhunderts entwickelte Quantentheorie der Ur-Alternativen beschrieben, in welcher die universelle Gültigkeit der allgemeinen Quantentheorie begründet und aus ihr die Existenz der in der Natur vorkommenden Entitäten hergeleitet werden soll, auf deren Beschreibung die konkrete Theoretische Physik basiert. Es werden sehr starke Argumente dafür geliefert, dass diese Theorie von den bislang entwickelten Ansätzen zu einer einheitlichen Theorie der Natur, welche die heute bekannte Physik in sich enthält, die vielleicht aussichtsreichste Theorie darstellt und damit die Aussicht bietet, auch für das Problem der Suche nach einer Quantentheorie der Gravitation den richtigen begrifflichen Rahmen zu bilden. Ihre große Glaubwürdigkeit erhält sie durch eine die Klassische Philosophie miteinbeziehende philosophische Analyse der Quantentheorie. Dieses Urteil behält seine Gültigkeit auch dann, wenn die Quantentheorie der Ur-Alternativen aufgrund der ungeheuren Abstraktheit der Begriffsbildung innerhalb der Theorie und der sich hieraus ergebenden mathematischen Schwierigkeiten bisher noch nicht zu einer vollen physikalischen Theorie entwickelt werden konnte. Die alles entscheidende Kernaussage dieser Dissertation besteht darin, dass aus einer begrifflichen Analyse der Quantentheorie und der Allgemeinen Relativitätstheorie mit nahezu zwingender Notwendigkeit zu folgen scheint, dass die physikalische Realität auf fundamentaler Ebene nicht-räumlich ist. Dies bedeutet, dass die These vertreten wird, dass es sich bei dem physikalische Raum, wie er gewöhnlich schlicht vorausgesetzt wird, wenn auch in unterschiedlicher Struktur, in Wahrheit nur um eine Darstellung dahinterstehender dynamischer Verhältnisse nicht-räumlicher Objekte handelt. Diese These stützt sich auf die Diffeomorphismeninvarianz in der Allgemeinen Relativitätstheorie und in noch höherem Maße auf die Nichtlokalität in der Quantentheorie, welche sich wiederum nicht nur in konkreten für die Quantentheorie konstitutiven Phänomenen, sondern dazu parallel ebenso im mathematischen Formalismus der Quantentheorie manifestiert. In Kombination mit der Kantischen Behandlung von Raum und Zeit ergibt sich damit ein kohärentes Bild in Bezug auf die eigentliche Natur des Raumes. Die Quantentheorie der Ur-Alternativen ist diesbezüglich als einzige derzeit existierende Theorie konsequent, indem sie auf der basalen Ebene den Raumbegriff nicht voraussetzt und rein quantentheoretische Objekte als fundamental annimmt, aus deren Zustandsräumen sie die Struktur der Raum-Zeit allerdings zu begründen in der Lage ist. Damit befinden sich diese fundamentalen durch Ur-Alternativen beschriebenen Objekte nicht in einem vorgegebenen Raum, sondern sie konstituieren umgekehrt den Raum. Dies ist eine Tatsache von sehr großer Bedeutung. Im vierten Teil wird schließlich die vorläufige Konsequenz aus diesen Einsichten gezogen. Nach einer kurzen Behandlung der wichtigsten bisherigen Ansätze zu einer quantentheoretischen Beschreibung der Gravitation, wird die Bedeutung der Tatsache, dass die Allgemeine Relativitätstheorie und die Quantentheorie eine relationalistische Raumanschauung nahelegen, nun konkret in Bezug auf die Frage der Vereinheitlichung der beiden Theorien betrachtet. Das bedeutet, dass das Ziel also letztlich darin besteht, einen Ansatz zu einer quantentheoretischen Beschreibung der Gravitation zu finden, bei der so wenig räumliche Struktur wie möglich vorausgesetzt wird. In Kapitel 12 wird diesbezüglich ein von mir entwickelter Ansatz vorgestellt, um zumindest eine Theorie zu formulieren, bei der die metrische Struktur der Raum-Zeit nicht vorausgesetzt sondern in Anlehnung an die Eigenschaften eines fundamentalen Spinorfeldes konstruiert wird, das im Sinne der Heisenbergschen einheitlichen Quantenfeldtheorie die Elementarteilchen einheitlich beschreiben soll. Dieser Ansatz geht bezüglich der Sparsamkeit der Verwendung von a priori vorhandener räumlicher Struktur über die bisherigen Ansätze zu einer Quantentheorie der Gravitation hinaus. Er ist aber dennoch nur als ein erster Schritt zu verstehen. Die konsequente Weiterführung dieses Ansatzes würde in dem Versuch bestehen, eine Verbindung zur von Weizsäckerschen Quantentheorie der Ur-Alternativen herzustellen, die überhaupt keine räumliche Struktur mehr voraussetzt. Hierzu konnten bisher nur aussichtsreiche Grundgedanken formuliert werden. Es wird allerdings basierend auf den in dieser Dissertation dargelegten Argumentationen die Vermutung aufgestellt, dass es im Rahmen der von Weizsäckerschen Quantentheorie der Ur-Alternativen möglich ist, eine konsistente quantentheoretische Beschreibung der Gravitation aufzustellen. In jedem Falle scheint die Quantentheorie der Ur-Alternativen die einzige Theorie zu sein, die aufgrund ihrer rein quantentheoretischen Natur in ihrer Begriffsbildung grundsätzlich genug ist, um eine Aussicht zu bieten, diejenige Realitätsebene zu erfassen, in welcher die Dualität zwischen der Quantentheorie und der Allgemeinen Relativitätstheorie zu einer Einheit gelangt.
Während des Alterungsprozesses kommt es u.a. im Gehirn zu einem signifikanten Verlust
postmitotischer Zellen, was zu Hirnleistungsstörungen im Alter führen kann.
Der Grund für diesen Zellverlust durch Apoptose könnte sein, dass es im Alter zu erhöhtem
oxidativen Streß und zu einer Veränderung in der Konzentration der an der Apoptose beteiligten
Proteine und Faktoren kommt. Diese Studie befaßt sich mit der neuronalen Apoptose und den daran
beteiligten Proteinen und Regulatoren. Ziel war es, herauszufinden, ob es im Alter zu einer
gesteigerten Apoptoserate im Hippokampus und zu einer Veränderung der Konzentration von
Proteinen kommt, die das Auftreten bzw. die Hemmung der Apoptose begünstigen könnte.
Untersucht wurden die Hippokampi von Pavianen als mögliches Primaten-Modell für altersbedingte
Pathologien, die das menschliche Gehirn betreffen können.
Um apoptotische Zellen im Hippokampus der Paviane nachzuweisen, wurde mit der TUNEL-Methode
gearbeitet und mittels Immunhistochemie untersucht, welchen Effekt das Alter auf die Verteilung der
Immunreaktivität von Cytochrom C, AIF, Bax, Bcl-2, Caspase-3 sowie von XIAP, einem Inhibitor der
Apoptose, hat. Auch die Immunreaktivität der Enzyme PARP und ICAD wurde dargestellt. Die
Ergebnisse zeigen, dass in den Hippokampi der gealterten Paviane das anti-apoptotische Protein Bcl-2
in unveränderter Reaktivität vorlag und das pro-apoptotische Protein Bax hochreguliert war. Es gab
eine Umverteilung und möglicherweise Freisetzung von Cytochrom C, jedoch aber keine Aktivierung
von Caspase-3. Diese Ergebnisse zeigen eine gewebepezifische Änderung des Bcl-2/Bax-
Verhältnisses in den Hippokampi der alten Primaten, die zur Beeinflussung der Cytochrom CFreisetzung
beitragen, ohne jedoch zur Apoptose der Zelle zu führen. Apoptotische Zellen konnten
mittels TUNEL-Färbung nicht nachgewiesen werden. Das könnte damit zusammenhängen, dass
XIAP, ein inhibitorisches Regulatorprotein der Apoptose, bei den gealterten Pavianen hochreguliert
war, ebenso wie das DNA-Reparaturenzym PARP. Auch das Enzym ICAD, welches in aktivierter
Form während der Apoptose wesentlich zum Chromatinabbau beiträgt zeigte im Alter eine erhöhte
Aktivität. Da in einer Studie über Tau-Pathologie im Hippokampus von Pavianen für das Auftreten
dieser Pathologie ein Zusammenhang mit dem Alter nachgewiesen werden konnte, und man weiß,
dass Zellen in der Nähe der β-Amyloidablagerung bei M.Alzheimer durch Apoptose absterben, wurde
mit Hilfe der Immunfloureszenz die Reaktivität des Enzyms Neprelysin untersucht, welches für den
β-Amyloidablagerung zuständig ist. Dieses war in seiner Reaktivität in den Hippokampi
der älteren Paviane im Gegensatz zu der in den Hippokampi der jüngeren Primaten erniedrigt, was auf
eine altersbedingte Disposition zu diesen Plaques hinweist.
Im Gegensatz zur Minimierung von DFAs ist die exakte Minimierung von NFAs oder regulären Ausdrücken nachweislich schwierig, im allgemeinen Fall PSpace-schwer. Wir zeigen, dass selbst schwache Approximationen zur Minimierung von NFAs und regulären Ausdrücken wahrscheinlich nicht effizient möglich sind. Falls als Eingabe ein NFA oder regulärer Ausdruck der Größe n gegeben ist, löst ein Approximationsalgorithmus für das Minimierungsproblem mit Approximationsfaktor o(n) bereits ein PSpace-vollständiges Problem. Wenn wir uns auf NFAs oder reguläre Ausdrücke über einem unären - also einelementigen - Alphabet beschränken, so ist das Problem der exakten Minimierung NP-vollständig. Wir weisen nach, dass effiziente Approximationen für das unäre Minimierungsproblem mit Approximationsfaktor n^(1-delta) für jedes delta>0 nicht möglich sind, sofern P != NP gilt. Liegt die Eingabe als DFA mit n Zuständen vor, kann sie exponentiell größer sein als ein äquivalenter NFA oder regulärer Ausdruck. Dennoch bleibt das Minimierungsproblem PSpace-schwer, wenn die Anzahl der Übergänge oder Zustände in einem äquivalenten NFA oder die Länge eines äquivalenten regulären Ausdrucks zu bestimmen ist. Wir zeigen, dass auch hierfür keine guten Approximationen zu erwarten sind. Unter der Annahme der Existenz von Pseudozufallsfunktionen, die wiederum auf der Annahme basiert, dass Faktorisierung schwierig ist, zeigen wir, dass kein effizienter Algorithmus einen Approximationsfaktor n/(poly(log n)) für die Zahl der Übergänge im NFA oder die Länge des regulären Ausdrucks garantieren kann. Für die Zahl der Zustände im NFA weisen wir nach, dass effiziente Approximationen mit Approximationsfaktor (n^(1/2))/(poly(log n)) ausgeschlossen sind. Wir betrachten dann Lernprobleme für reguläre Sprachen als Konzeptklasse. Mit den entwickelten Methoden, die auf der Annahme der Existenz von Pseudozufallsfunktionen beruhen, zeigen wir auch, dass es für das Problem des minimalen konsistenten DFAs keine effizienten Approximationen mit Approximationsfaktor n/(poly(log n)) gibt. Für den unären Fall hingegen weisen wir nach, dass es einen effizienten Algorithmus gibt, der einen minimalen konsistenten DFA konstruiert und erhalten somit auch einen effizienten PAC-Algorithmus für unäre reguläre Sprachen, die von DFAs mit n Zuständen akzeptiert werden. Für unäre Beispielmengen weisen wir außerdem nach, dass es keine effizienten Algorithmen gibt, die minimale konsistente NFAs konstruieren, falls NP-vollständige Probleme nicht in Zeit (n^(O(log n)) gelöst werden können. Andererseits geben wir einen effizienten Algorithmus an, der zu unären Beispielmengen einen konsistenten NFA mit höchstens O(opt^2) Zuständen konstruiert, wenn ein minimaler konsistenter NFA opt Zustände hat. Abschließend betrachten wir das Lernen von DFAs durch Äquivalenzfragen. Für den nicht-unären Fall ist bekannt, dass exponentiell viele Fragen für DFAs mit n Zuständen benötigt werden. Für unäre zyklische DFAs mit primer Zykluslänge und höchstens n Zuständen zeigen wir, dass Theta((n^2)/(ln n)) Äquivalenzfragen hinreichend und notwendig sind. Erlauben wir größere zyklische DFAs als Hypothesen, kommen wir mit weniger Fragen aus: Um zyklische DFAs mit höchstens n Zuständen durch Äquivalenzfragen mit zyklischen DFAs mit höchstens n^d Zuständen für d <= n als Hypothesen zu lernen, sind O((n^2)/d) Fragen hinreichend und Omega((n^2 ln d)/(d (ln n)^2)) Fragen nötig.
Das Sturge-Weber Syndrom ist eine kongenitale neuroektodermale Erkrankung aus dem Formenkreis der Phakomatosen mit einer Inzidenz von eins auf 50.000 Neugeborene ohne familiäre Häufung und ohne bestimmte ethnische- und Geschlechtszugehörigkeit. Es ist gekennzeichnet durch leptomeningeale Angiomatose, Glaukome und Feuermale im Ausbreitungsgebiet des Trigeminusnervs. Klinisch manifestiert es sich durch Krampfleiden, neurologische Defizite, Glaukomanfälle, migräneartige Kopfschmerzen, schlaganfallartige Ereignisse und mentale Retardierung. Da die Erkrankung mit Vergrößerung der leptmeningealen Angiome progredient ist, wurde in dieser Arbeit der Frage nach angiogenen Prozessen in diesen Angiomen nachgegangen. Immuhistochemisch untersucht und semiquantitativ ausgewertet wurden die Proteine der angiogenen Faktoren VEGF, VEGFR-1 und-2, NP-1, Tie-2, Hif-1a und Hif-2a. Für alle Faktoren zeigten sich erhöhte Expressionslevel im Vergleich zu den Epilepsie- Negativkontrollen. Zudem zeigte sich eine erhöhte Proliferations- und Apoptoserate in den leptomeningealen Angiomen und den intraparenchymalen Gefäßen des darunterliegenden Cortex’. Die Ergebnisse sprechen für das Vorhandensein aktiver angiogener Prozesse in leptomeningealen Angiomen bei Sturge-Weber Syndrom Patienten. Als Arbeitsmodell wird vorgeschlagen, dass eine endothelzellintrinsische Hif Aktivierung (intrinsischer Signalweg) die Gefäße für eine erhöhte VEGF Stimulation (extrinsischer Signalweg) empfänglich macht und somit zu Erhalt und Progredienz der Angiome beiträgt. Eine therapeutische Option könnte eine antiangiogene Strategie zur Eindämmung oder Regression der Angiome darstellen.
In zahlreichen Studien konnte ein tumorwachstumshemmender Effekt der überwiegend in Fischöl vorkommenden Omega-3-Fettsäuren, insbesondere der Eikosapentaensäure (EPA), belegt werden. In den bisher vorliegenden Studien wurde überwiegend der Effekt freier Fettsäuren auf das Wachstum von Tumorzellen untersucht. Ziel dieser Studie war es deshalb, den Effekt einer Fettemulsion mit komplexer Triglyzeridstruktur, die als solche auch am Patienten im Rahmen einer parenteralen Ernährung Anwendung findet, auf das Wachstum der Pankreaskarzinomzelllinie Mia-Paca-2 und der Kolonkarzinomzelllinie Caco-2 zu untersuchen, und die zugrundeliegenden Mechanismen für die erhobenen Effekte zu evaluieren. • Die in der vorliegenden Studie eingesetzte Fischölemulsion hemmte die Proliferation sowohl der Pankreaskarzinomzelllinie Mia-Paca-2 als auch der Kolonkarzinomzelllinie Caco-2 dosis- und zeitabhängig. Dieser Effekt war auf eine Zunahme der Apoptoseinduktion und eine Blockierung der Zellen in der S- und G2/M-Phase des Zellzyklus zurückzuführen. Tumorzellen sind in der Lage, durch Expression von Wachstumsfaktoren ihr Zellwachstum selbständig zu stimulieren. Eine bedeutende Rolle scheint in diesem Zusammenhang der epidermale Wachstumsfaktor (EGF) zu spielen. Bei zahlreichen Tumoren kann eine Überexpression des membranständigen EGF-Rezeptors nachgewiesen werden. Es gibt Hinweise, dass die Modifikation der Lipidkomposition zellulärer Membranen durch ein verändertes Angebot an mehrfach ungesättigten Fettsäuren mit einer Änderung der Aktivität von Membranrezeptoren einhergeht. In weiterführenden Experimenten wurde deshalb der Einfluß von EGF auf das Wachstum der mit der Omega-3-fettsäurereichen Fischölemulsion vorbehandelten Pankreaskarzinomzelllinie Mia-Paca-2 untersucht. • Eine Präinkubation der Mia-Paca-2 Zellen mit der Omega-3-fettsäurereichen Fischölemulsion führte zu einer Umkehrung des wachstumsfördernden Effektes von EGF. Eine entscheidende Determinante in der Entwicklung und dem Wachstum von Tumoren ist deren Sensitivität gegenüber chemotherapeutischer Behandlung. Das Auftreten von chemotherapieresistenten Tumorzellen ist häufig limitierender Faktor für eine erfolgreiche zytostatische Therapie. In einem weiteren Versuchsansatz sollte deshalb der Fragestellung nachgegangen werden, ob eine Verbesserung der Wirksamkeit gängiger Chemotherapeutika in der Antitumortherapie von Pankreas- und Kolonkarzinomen nach kombinierter Behandlung mit der Fischölmulsion zu erwarten ist. • Der Einsatz der Fischölemulsion in Kombination mit Gemcitabin und 5-FU bei Mia-Paca-2 Zellen bzw. Caco-2 Zellen führte zu einem additiven wachstumshemmenden Effekt. Die Ergebnisse der vorliegenden Arbeit belegen, dass Omega-3-fettsäurereiche Lipidemulsionen eine sinnvolle adjuvante therapeutische Maßnahme in der Behandlung des Pankreas- und Kolonkarzinoms darstellen können.
Wir haben Interaktion in der Kommunikationskomplexität untersucht und dabei die drei Modi probabilistische, (beschränkt) nichtdeterministische und quantenmechanische Kommunikation betrachtet. Bei allen drei Modi haben wir herausgefunden, dass Interaktion für Effzienz oft unerlässlich ist, im nichtdeterministischen Fall gibt es eine Abhängigkeit zwischen dem Einfluss der Interaktion und der erlaubten Anzahl der nichtdeterministischen Ratebits. Abgesehen von dem erreichten besseren Verständnis des Kommunikationsmodells haben wir verschiedene Anwendungen auf andere Berechnungsmodelle beschrieben, bei denen untere Schranken der Kommunikation zu unteren Schranken für andere Ressourcen in diesen Modellen geführt haben. Ein Beispiel eines kommunikations- und interaktionsbeschränkten Modells sind endliche Automaten, welche wir in allen drei Modi untersucht haben. Ein weiteres Beispiel sind Formeln, für die wir eine Verbindung zwischen Einweg Kommunikation und Formellänge herstellen konnten. Diese Verbindung führte zu unteren Schranken für probabilistische, nichtdeterministische und Quanten Formeln. Dabei sind die unteren Schranken für Quanten Formeln und probabilistische Formeln im wesentlichen gleich. Für monotone Schaltkreise haben wir gezeigt, wie nichtdeterministisches Raten die Tiefe drastisch reduzieren kann, und wie eine geringfügige Einschränkung der nichtdeterministischen Ratebits zu einer Tiefenhierarchie führt. Insgesamt lässt sich feststellen, dass die Schwäche interaktionsbeschränkter Kommunikation mathematisch nachvollziehbar ist. Außerdem scheint ein solches Verhalten in der Welt einfacher Berechnungsmodelle häufig aufzutreten. Oder anders gesagt, viele Berechnungsmodelle sind deshalb einfacher zu verstehen, weil sie durch interaktionsbeschränkte Kommunikation analysierbar sind.
Als Sohn Therese Alzheimers geb. Busch (1840-1882) und des Notars Eduard Alzheimer (1830-1891) wurde Alois Alzheimer am 14. Juni 1864 in Marktbreit (Landkreis Kitzingen) geboren. Er hatte zwei Schwestern und drei Brüder sowie einen Halbbruder und eine Halbschwester. Als Zehnjähriger kam Alois Alzheimer nach Aschaffenburg und absolvierte bis Juli 1883 das Königliche humanistische Gymnasium, wie bereits sein Vater und dessen fünf Brüder. Nach dem Militärdienst in Aschaffenburg studierte Alois Alzheimer ab dem Wintersemester 1883 Medizin in Berlin, Tübingen und Würzburg. Nach dem Staatsexamen im Juni 1888 in Würzburg wurde er mit der Dissertation „Über die Ohrenschmalzdrüsen“ zum Dr. med. promoviert. Nach einer Assistentenzeit bei seinem Doktorvater Albert von Koelliker (1817-1905) begleitete er eine geisteskranke Dame auf ihren Reisen. Ende 1888 wurde Alois Alzheimer Assistenzarzt und 1895 Oberarzt in Frankfurt a. M. bei Emi Sioli (1852-1922), wo er ab Ende 1901 die erste bekannte Alzheimer-Kranke, Auguste Deter (1850-1906), behandelte.
Alois Alzheimer heiratete 1894 die Witwe Cecilie Geisenheimer geb. Wallerstein (1860-1901). Sie hatten drei Kinder: Gertrud Stertz geb. Alzheimer (1895-1980), Hans Alzheimer (1896-1981) und Maria Finsterwalder geb. Alzheimer (1900-1977). Alois Alzheimer hatte auch zwei Patenkinder: Alois Alzheimer (1892-1892) und Generaldirektor Dr. jur. Alois Alzheimer (1901-1987).
Alois Alzheimer (1864-1915) war ab 1903 Mitarbeiter Emil Kraepelins (1856-1926) in Heidelberg und München. Neben seiner ärztlichen Tätigkeit habilitierte sich alois Alzheimer 1904 mit der Arbeit „Histologische Studien zur Differentialdiagnostik der progressiven Paralyse“ habilitierte. Hierfür erhielt er im Januar 1912 in Leipzig den Paul-Julius-Möbius-Preis. Alois Alzheimer wurde 1904 Privatdozenten und 1909 außerordentlichen Professor in Bayern ernannt. In der im Herbst 1910 publizierten 8. Auflage seines Psychiatrie-Lehrbuchs, das im Herbst 1910 erschien, verwendete Emil Kraepelin erstmals das Eponym „Alzheimersche Krankheit“. Alois Alzheimer verdanken wir wesentlich mehr als diesbezügliche Forschungen und seine beiden Publikationen von 1906 und 1911 zu der später nach ihm benannten Krankheit, wodurch sein Name weltweit bekannt wurde und bis heute ist. Die von ihm bearbeiteten neurologischen und psychiatrischen Gebiete weisen kaum Überschneidungen auf. Er betrat mehrfach wissenschaftliches Neuland oder entwickelte Erkenntnisse weiter. Zu nennen sind hier u. a. seine Publikationen über Schizophrenie, Chorea Huntington, Epilepsie, Encephalitis, Erschöpfungspsychosen, manisch-depressives Irresein, Lumbalpunktion, Fetischismus, Indikationen für eine künstliche Schwangerschaftsunterbrechung bei Geisteskranken, Delirium, „geborene Verbrecher“, Alkoholkrankheit und Kriegsneurosen.
Zusammen mit seinem Chefarzt Emil Kraepelin behandelte Oberarzt Alois Alzheimer auch überegional bekannte Patienten wie den Nobelpreisträger Emil von Behring (1854-1917) und sog. „Wolfsmann“ Sergius Pankejeff (1887-1979) sowie das Vorbild für die „Clarisse in Robert Musils (1880-1942) Roman „Mann ohne Eigenschaften“, Alice Donath geb. Charlemont (1885-1939). Alois Alzheimer genoss schon zu Lebzeiten ein internationales Renommee. Gastärzte und Assistenten waren unter anderem Solomon Carter Fuller (1872-1953), Francesco Bonfiglio (1833-1966), Gaetano Perusini (1879-1915), Alfons Jakob (1884-1931) und Hans-Gerhard Creutzfeldt (1885-1961). Alois Alzheimer war ab 1910 zusammen mit Max Lewandowsky (1876-1918) Schriftleiter der neuen "Zeitschrift für die gesamte Neurologie und Psychiatrie".Im Juli 1912 wurde Alois Alzheimer ordentlicher Professor für Psychiatrie und Neurologie in Breslau und Chefarzt der Universitätsklinik. Er war zu Beginn des Ersten Weltkrieges auch im dortigen Festungslazarett eingesetzt.
Alois Alzheimer starb am 19. Dezember 1915 an Herzmuskelentzündung und Nierenversagen. Er wurde auf dem Hauptfriedhof in Frankfurt a. M. neben seiner Ehefrau beigesetzt.
In einem eigenen Kapitel werden die Geschichte der Alzheimer-Krankheit beleuchtet und aktuelle Erkenntnisse aufgezeigt. Die vorliegende Arbeit wird ergänzt durch relevante Hinweise auf die rechtliche Vorsorge durch eine Patientenverfügung und Vollmacht, ggf. die Errichtung einer Rechtlichen Betreuung, wenn ein/e Alzheimer-Kranke/r seine Angelegenheiten nicht mehr selbst regeln kann und in geistig gesunden Tagen keine schriftlichen Festlegungen getroffen hat. Erläutert werden ebenso Nachteilsausgleiche bei Schwerbehinderung sowie Hilfen bei Krankheit und Pflegebedürftigkeit: häusliche Pflege in Privatwohnungen oder Anlagen für Betreutes Wohnen, Tagespflege, Kurzzeitpflege und vollstationäre Dauerpflege in Seniorenheimen. Aufgezeigt werden auch Leistungen der Krankenkassen und Zuschüsse nach dem Pflegeversicherungsgesetz sowie bei Bedürftigkeit ergänzende Sozialhilfe zu erhalten.
In der vorliegenden Arbeit wurden zehn Substanzen, die im Rahmen des Projekts INTAFERE analytisch in verschiedenen Gewässersystemen des Hessischen Rieds nachgewiesen werden konnten, ökotoxikologisch charakterisiert. Neben der Bestimmung der Akut- und der chronischen Toxizität wurde auch das endokrine Potential mit Hilfe eines rekombinanten Hefe-Assays ermittelt.Die akute Toxizität zeigt zwischen den verschiedenen Substanzen große Differenzen. Die drei Organophosphate TCPP, TBEP und TCEP zeigen selbst bei hohen Konzentrationen keine oder nur sehr geringe Effekte, während 4-NP, 4-t-OP, BPA, TDCPP, AHTN und Terbutryn mit LC50-Werten bis zu 5 mg/l eine höhere Toxizität besitzen.Im Hefe-Assay kann in mehreren Versuchswiederholungen das östrogene Potential von 4-NP (MW: 6,71x10-6 M), 4-t-OP (MW: 7,16x10-6 M) und BPA (MW: 4,88x10-6 M), sowie die antiandrogene Wirkung des Bisphenols (5,29x10-5 M) bestätigt werden. Im Gegensatz dazu können im Yeast Antiestrogen Screen zum ersten Mal Hinweise auf die antiöstrogene Wirkung von TCPP (MW: 6,86x10-5 M), Terbutryn (MW: 3,99x10-5 M), TDCPP (MW: 2,65x10-6 M) und TBP (MW: 2,28x10-5 M) aufgezeigt werden.TBP und TDCPP führen auch in der chronischen Exposition bei Potamopyrgus antipodarum zu einer Reduktion in der Embryonenzahl (mehrfach beobachtete NOEC beider Substanzen: 6,25 mg/kg), ein Effekt, der zunächst nicht von einer toxischen Wirkung unterschieden werden kann. Allerdings scheint sich ein antiöstrogener Wirkmechanismus auf die Schnecken bei den Versuchen zur Mischtoxizität zu bestätigen, da die gleichzeitige Exposition gegenüber BPA und 4-tOP zu einer geringfügigen Aufhebung des Effekts führt. Potamopyrgus reagiert ebenfalls mit einer Reduktion der Embryonenzahl bei der Exposition gegenüber AHTN (mehrfach beobachtete NOEC: 2 mg/kg), zeigt sich aber insensitiv gegenüber der Belastung mit Terbutryn.Die Exposition von Chironomus riparius gegenüber den verschiedenen Substanzen führt bis auf eine Ausnahme zu keinen signifikanten substanzbedingten Beeinträchtigungen. Einzig das s-Triazin Terbutryn verursacht eine hohe Mortalität mit einer NOEC (28 d) von 250 μg/kg. Eine Toxizität auf den Anneliden Lumbriculus variegatus zeigt sich lediglich bei derExposition gegenüber BPA (NOEC: 10 mg/kg; Biomasse, 28 d) und 4-NP (EC10: 6,88 mg/kg; 95% KI: 3,97-11,9; Reproduktion, 28 d). Die durchgeführten Versuche zur Toxizität von Mischungen zeigen eine größere Gefährdung auf als bei Vorliegen der Einzelsubstanzen in Konzentrationen unterhalb ihres Schwellenwertes zu vermuten wäre. Allerdings lassen sich die mit dem Hefe-Assay erzielten Ergebnisse aufgrund großer Variabilitäten zwischen den einzelnen Versuchswiederholungen nicht immer eindeutig mit Hilfe des additiven oder des unabhängigen Modells beschreiben, zeigen dabei jedoch trotzdem ein gegenüber den Einzelsubstanzergebnissen verändertes Risiko auf. Um diesem in der Risikobewertung Rechnung zu tragen, wird ein Verfahrensvorschlag entwickelt, in dem durch zusätzliche Sicherheitsfaktoren für PNECs ein Überschreiten des risikoanzeigenden Werts von 1 des PEC/PNEC-Quotienten einer Mischung verhindert werden kann.
Während sich das deutsche Erziehungs-, Bildungs- und Sozialsystem durch Achtung und Expansion „institutioneller Vielfalt“ auszeichnet, wird in Spanien spätestens seit 1990 mit unterschiedlicher Intensität, je nach Regierung, ausgehend von der LOGSE Reform an einer „Schule für alle“ gearbeitet. Es werden vergleichsweise wenige Kinder in Sondereinrichtungen beschult. Die Strategien und die dahinter liegenden Vorstellungen, wie Partizipation zu realisieren sei, waren Ende letzten Jahrhunderts in beiden Ländern deutlich verschieden. Die in der Dissertation vorgestellten Daten zeigen jedoch, dass zu wenige Kinder die Kompetenzen für eine gegenwärtige und zukünftige persönlich und wirtschaftlich erfolgreiche Lebensführung erwerben. Zentral für die Arbeit ist die von Urie Bronfenbrenner entwickelte systemökologische Theorie der menschlichen Entwicklung. Im Kern geht es bei dieser Theorie immer um die Suche, das Finden und Gestalten optimaler Bedingungen für menschliche Entwicklung. Die Fragestellung der Arbeit ist, wie in Deutschland und Spanien, aber auch wie Professionelle, interdisziplinär die Aufgabe der Integration und Partizipation im Rahmen ihrer Vorgaben bewältigen. Die Arbeit ist in zwei große Teile unterteilt. Die ersten Kapitel sind eine Sammlung von Daten, Theorien, Praxen, Diskussionen und geschichtlichen Entwicklungen, die die schulische Integration von Kindern mit Behinderungen bzw. mit schwierigen Lebenslagen, darstellt. Ab Kapitel sieben wird dann mit Methoden der qualitativen Sozialforschung nach Ressourcen und Kompetenzen, die in Spanien wie in Deutschland vorliegen bzw. entwickelt werden müssen gesucht, um auch Kindern mit Schwierigkeiten eine für sie persönlich erfolgreiche Bildung zur ermöglichen. Nach einem Einführungskapitel werden im zweiten Kapitel Theorien und Modelle der Integrationspädagogik und der an ihr beteiligten Disziplinen diskutiert. Das folgende Kapitel stellt ausgewählte Studien vor, die sich mit Lern- und Lebenslagen von Kindern befassen, denn der gesellschaftliche wie der wissenschaftliche Blick auf die Kindheit hat sich gewandelt. Ein integratives bzw. inklusives Erziehungs- und Bildungssystem wäre eine passende Antwort auf den Wandel. Das vierte Kapitel gibt einen Einblick in das bundesdeutsche Bildungssystem und stellt statistische Daten zur integrativen Beschulung in den Bundesländern vor. Das fünfte Kapitel befasst sich mit dem spanischen Bildungssystem. Das starke Engagement der Katholischen Kirche im 19. und auch noch im 20. Jahrhundert, die Francozeit und die Transición sind die Basis, auf der in den 90 ziger Jahren des letzten Jahrhunderts die, auf 10 Jahre angelegte LOGSE Reform geplant und teilweise umgesetzt wurde. Diese als top-down zu bezeichnende systemische Reform, wird mit ihren Elementen der integrativen und der kompensatorischen Erziehung dargestellt. Die Beschreibung der spanischen Reformentwicklungen endet im Jahr 2004. Der empirische Teil der Arbeit beginnt im Kapitel sechs mit Gedanken zur Qualitativen Sozialforschung. Im Kaptitel sieben wird die Gegenstandsnahe Theoriebildung vorgestellt. Das achte Kapitel befasst sich mit dem Zirkulären Dekonstruieren. Im neunten Kapitel werden die deutschen und die spanischen Interviewpartner in ihrer professionellen Expertenrolle als Grundschullehrerin, Sozialarbeiterin, Erziehungswissenschaftler, Psychologe, Unterstützungslehrerin, Physiotherapeut und Förderschullehrerin vorgestellt. Sechs Interviews fanden Ende 1999, also zu einer Zeit in der die LOGSE Reform bereits fast abgeschlossen sein sollte, statt. Das siebte Interview mit der Förderschullehrerin wurde 2001 geführt. Verständigung und Bewertung konnten aus den Kategorien der Interviews als wichtige Ressourcen für integrative schulische Arbeit erkannt werden. Im Kaptitel zehn wird der ökosystemische Ansatz vertieft dargestellt. Im elften Kapitel werden dann systematisch die Definitionen der Ökosystemischen Theorie auf die Lebensbereiche, die ein Kind betreffen, bzw. die herausgearbeiteten Kategorien angewendet. In diesen Lebensbereichen werden interdisziplinär und über die Ländergrenzen hinweg, die Kategorien diskutiert, um zu Aussagen über gute Entwicklungsbedingungen zu kommen. Die Kapitel zwölf bis vierzehn verbinden die Ergebnisse der Auswertung mit den zusammengetragenen Daten und Fakten zur Situation in Deutschland und Spanien. Als förderlich für die Integration, die auf allen Systemebenen angelegt sein sollte, werden beispielhaft folgende Kriterien beschrieben: eine integrative Grundhaltung, ein moderat konstruktivistischer Unterricht, die Anerkennung und Förderung aller Kompetenzen der Kinder, die Arbeit mit dem entwicklungsfördernden Potential, Kontinuität in den Beziehungen, Strukturen und Räumen, Bestreben nach müheloser Kommunikation. Seitenzahl: 400 Abbildungen: 55 Tabellen: 52
Ziel dieser Arbeit ist es, Wege darzustellen, wie die Thematik Ökobilanzen im Chemieunterricht allgemeinbildender Schulen behandelt werden kann. Ökobilanzen sind definiert als ein Verfahren zur Ermittlung der potentiellen Umweltbelastungen eines Produktes über dessen gesamten Lebensweg. Ein solcher Lebensweg besteht aus mehreren Abschnitten. Am Anfang steht die Rohstoffgewinnung, dann folgt die Herstellung des Produktes, darauf der Gebrauch/Verbrauch und schließlich die Entsorgung oder das Recycling. Die grundlegende Vorgehensweise, wie eine (klassische) Ökobilanz aufzustellen ist, ist ausführlich in den DIN EN ISO-Normen 14040 bis 14043 beschrieben. Für den Chemieunterricht ist aber ein solche, den gesamten Lebensweg umfassende und DIN-gerechte Betrachtung zu zeitaufwendig und schwierig. Daher wurde nach Lösungsmöglichkeiten gesucht, dieses aufgrund seines Umweltbezuges interessante Thema dennoch für den Unterricht erschließen zu können. Es wurde ein kombinierter experimenteller und computerunterstützter Zugang entwickelt. Schwerpunkt ist der Chemieunterricht der Sekundarstufe II, jedoch kann die Thematik Ökobilanzen aufgrund umfassender didaktischer Reduktion bereits in der Sekundarstufe I oder ganz vereinfacht sogar im Sachunterricht der Grundschule behandelt werden. Methodische Möglichkeiten werden auch für diese Schulstufen vorgestellt. Für die Sekundarstufe II wurden Experimente erarbeitet, deren Daten zu den Stoff- und Energieströmen dazu dienen, eine vereinfachte Ökobilanz im Unterricht aufstellen zu können. Gegenstand der Experimente ist zum einen die Herstellung von entionisiertem Wasser über Destillation und Ionenaustausch, zum anderen die Herstellung und das Recycling von Kunststoffen. Die Experimente sind so konzipiert, daß sie von Schülern selbst durchgeführt werden können. Um die Auswertung und die Aufstellung der Ökobilanz zu vereinfachen und somit zu beschleunigen, wurde das Programm ÖKO-BILLY unter Microsoft Excel 97 entwickelt, welches hier ebenfalls vorgestellt werden soll. Es dient nicht nur Datenerfassung, sondern ist darüber hinaus auch ein Lernprogramm, welches den Aufbau und die Durchführung einer Ökobilanz demonstriert. Durch die Kombination von Experiment und Computerprogramm kann die Thematik Ökobilanzen erfolgreich im Chemieunterricht der gymnasialen Oberstufe vermittelt werden.
Einleitung: Empathie ist ein entscheidender Faktor mit direktem Bezug auf das therapeutische Outcome in der Arzt-Patienten Beziehung. Die Ausbildung junger Mediziner:innen ist jedoch sehr fachlich orientiert, soziale Fähigkeiten werden nur in geringem Ausmaß gelehrt. Am Fachbereich Medizin der Goethe Universität Frankfurt wurden Simulationspatient:innen (SPs) bisher hauptsächlich in Prüfungen eingesetzt, nicht aber in der Lehre. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob der Einsatz von SPs in der curricularen Lehre im Fach Chirurgie zur Vermittlung von strukturierten chirurgischen Anamnese- und Aufklärungsgesprächen umsetzbar ist, ob dieses einen Einfluss auf das empathische Verhalten der Studierenden hat, und ob es bei der gezeigten Empathie einen Unterschied zwischen SPs und reale Patient:innen (RPs) gibt. Zusätzlich wird untersucht, ob der Einsatz von SPs einen Einfluss auf den Lernerfolg in kommunikationsbasierten Prüfungen hat.
Methoden: Studienteilnehmende waren Studierende im 3. klinischen Semester am Fachbereich Medizin der Goethe Universität, die aktuell ihr curriculares Blockpraktikum Chirurgie absolvierten. Im Rahmen des Blockpraktikums Chirurgie durchliefen die Studierenden das ‚Training Praktischer Fertigkeiten‘ und hierbei das Modul ‚Kommunikation (Anamnese und Aufklärung)‘. Das Modul dauerte insgesamt 210 Minuten und setzte sich aus theoretischen Einheiten sowie praktischen Übungen (Rollenspielen) zusammen. Die Studienteilnehmenden wurden in 3 Studiengruppen randomisiert. Alle Teilnehmenden füllten zunächst zwei Fragebögen zum selbsteingeschätzten Empathielevel aus und lernten die identischen theoretischen Inhalte des Moduls. In den Rollenspielen trainierte Gruppe 1 mit SPs und wusste auch, dass es sich um SPs handelt. Gruppe 2 übte ebenfalls mit SPs, ging aber davon aus, dass es sich um reale Patient:innen handelte (Inkognito Patient:innen = IPs), Gruppe 3 übte mit RPs und war auch darüber informiert. Im Anschluss wurden die Studierenden anhand eines 10-Items Fragebogen in Hinblick auf die gezeigte Empathie durch die (Simulations-)-Patient:innen bewertet. Der Lernerfolg wurde anhand der Ergebnisse des Chirurgie-OSCE’s, den die Teilnehmenden 5-12 Wochen nach dem Modul absolvierten, ausgewertet.
Ergebnisse: Es zeigten sich signifikante Unterschiede bei dem vom Patienten wahrgenommenen Empathielevel zwischen Gruppe 1 (SP) und 2 (IP) und 1 (SP) und 3 (RP), nicht aber zwischen Gruppe 2 (IP) und 3 (RP). In dieser Konstellation wurden Studierende, welche mit RPs übten oder zumindest davon ausgingen, signifikant weniger empathisch bewertet. Es zeigten sich signifikante Unterschiede in der Eigeneinschätzung zwischen Männern und Frauen, nicht aber in der Fremdeinschätzung. Es gab keine signifikanten Unterschiede in den Ergebnissen der kommunikationsbasierenden Stationen der Chirurgie-OSCE zwischen den einzelnen Gruppen.
Schlussfolgerung: Der Einsatz von SPs im Hinblick auf den Lernerfolg in kommunikationsbasierenden Prüfungen ist gerechtfertigt und eine gute Möglichkeit, um Studierenden das Üben von Gesprächssituationen realistisch zu ermöglichen, ohne dabei akut klinische Patient:innen rekrutieren zu müssen. Dabei muss aber beachtet werden, dass das empathische Verhalten der Studierenden ein anderes ist, wenn sie mit RPs arbeiten, beziehungsweise davon ausgehen, mit einem RP zu arbeiten. Zur Förderung der Empathie sollten RPs und Feedback durch diese früh in die studentische Lehre implementiert werden.
In der vorliegenden Arbeit zur Bestandsaufnahme der Debatte um den ärztlich assistierten Suizid werden vier Kernprobleme untersucht und eine abschließende Stellungnahme vorgelegt: (1) Ein Einblick in strafrechtliche und standesrechtliche Regelungen zeigt, dass die Gesetzeslage ebenso Raum für Unsicherheiten und Ungewissheit über eine drohende Strafe lässt wie auch die standesrechtliche, in den Bundesländern uneinheitliche Handhabung. Vor allem ist die Berechtigung zum Entzug der Approbation unterschiedlich geregelt. Um darüber Klarheit zu erreichen, wurde eine entsprechende Anfrage an die Justiziare der Landesärztekammern gerichtet. Insgesamt war die Bereitschaft zur Antwort groß, die Aussagen sind jedoch generell nicht eindeutig, so dass die berufsrechtliche Lage nach wie vor und wenig transparent bleibt. (2) Im Überblick dieser Arbeit fällt die Diskrepanz zwischen einer weitgehend liberalen juristischen Position einerseits und einer strikt ablehnenden Haltung der Ärzteschaft andererseits auf. Daher wird die zentrale These der „Unärztlichkeit“ einer Suizidassistenz hinterfragt. Dies erscheint hinsichtlich der damit zum Ausdruck gebrachten Befürchtung, dass das Rollenbild des Arztes Schaden nehmen könnte, ein ernstzunehmendes Argument. Im Rahmen der vorliegenden Arbeit ist besonders die Tragfähigkeit hinsichtlich des freiwilligen, ernstlichen Suizids eines zurechnungsfähigen erwachsenen Patienten von Interesse, der aufgrund schwersten Leidens im terminalen Erkrankungsstadium, ohne psychische Grunderkrankung, sein Leben mit ärztlicher Hilfe beenden will. Die Analyse zeigt, dass das ärztliche Ethos hinsichtlich der Begleitung von schwer kranken Patienten bzw. Sterbenden durch eine ärztliche Suizidassistenz nicht verletzt werden muss, solange der Arzt nicht die Tatherrschaft übernimmt. (3) Nach der Zurückweisung des Arguments der „Unärztlichkeit“ werden weitere Pro- und Contra-Argumente der aktuellen Debatte in Deutschland dargestellt und ebenfalls im Hinblick auf das terminale Stadium erörtert. Dabei zeigt sich, dass keines der Argumente alleine eine eindeutige und verpflichtende Handlung nach sich ziehen könnte. Als wesentliche Herausforderungen bleiben der Hinweis auf das ärztliche Selbstverständnis einerseits und das objektiv nicht linderbare Leiden eines Patienten andererseits. (4) Schließlich wird die vielfach geforderte Lockerung der Garantenstellung des Arztes mit gleichzeitiger standesrechtlicher Billigung des ärztlich assistierten Suizids für ganz spezielle, seltene Ausnahmefälle analysiert. Unter Berücksichtigung und Kontrolle strenger Kriterien könnte so ein denkbarer Kompromiss erreicht und vor allem für betroffene terminal Erkrankte mit unerträglichem Leid ein Ausweg geschaffen werden, der es ihnen ermöglicht, nicht alleine sterben zu müssen. Einem Dammbruch kann ebenso vorgebeugt werden wie dem aktuellen Sterbetourismus. (5) Als Ergebnis der Befassung mit den Argumenten muss man jedoch erwarten, dass die Ärzteschaft auf absehbare Zeit die Assistenz zum Suizid keinesfalls in den ärztlichen Aufgabenbereich integrieren wird. Sie wird sich allerdings auf längere Sicht damit auseinandersetzen müssen, dass es ihre eigenen medizinischen Erfolge sind, die das Sterben heutzutage oftmals besonders in die Länge ziehen. Wenn die Ärzteschaft sich dieser schwerwiegenden Problematik nicht öffnet, werden es andere tun. Dies muss kein Nachteil für die Reinerhaltung der ärztlichen Rolle sein. Für den einzelnen Arzt kann es aber ein höchst belastender Gewissenskonflikt werden, wenn er seinen Patienten in dieser Not alleine lässt. Schließlich ist mit einer puristischen Haltung auch die Gefahr verbunden, dass im Verborgenen nicht zu kontrollierende Handlungen vorgenommen werden.
Der Erforschung der Bronzestatuetten der Frühen Neuzeit im 19. Jahrhundert wurde bisher wenig Beachtung geschenkt. Die erste umfassende stilkritische Gattungsmonographie mit dem Titel „Die Italienischen Bronzestatuetten der Renaissance“ wurde von Wilhelm von Bode (1845 - 1929) verfasst. Er veröffentlichte diese kurz nach der Eröffnung des neu gebauten Kaiser-Friedrich-Museums in Berlin 1904. Maßgeblich durch Bode geprägt, zeigte dieses Museum erstmals Bronzestatuetten der Renaissance und des Barock als eine eigenständige Skulpturengattung. Die wissenschaftshistorische Frage nach der Entstehung der stilkritischen Kleinbronzenforschung zwischen 1871 und 1904 steht daher im Kontext der Berliner Museums- und Sammlungsgeschichte, mit dem Schwerpunkt auf der Erwerbung der Kleinbronzen, deren Zuschreibung und Präsentation. Ein 1883 veröffentlichtes Konzept für ein Berliner „Renaissancemuseum“ verknüpfte mit der Sammlungspräsentation die Erwartung, der ästhetischen Selbstvergewisserung ihrer Betrachter zu dienen. Die Kunst der Renaissance, darunter auch die Bronzestatuetten, war dabei Sinnbild des modernen bürgerlichen Autonomiebestrebens. Diesem Leitbild stand die Arbeitsorganisation ihres Erforschers Wilhelm von Bode gegenüber, die seine historische Theorie und stilkritische Methode prägte. Neben dem Einfluss Jakob Burckharts und dessen „Kunstgeschichte nach Aufgaben“ geben Bodes Briefwechsel mit Theodor von Frimmel, Louis Courajod und dem Sammler Fürst Johann II. von und zu Liechtenstein Aufschluss über sein Forschungsinteresse. So fokussierte er seine Forschung auf die Statuetten des Bildhauers und Bronzemodelleurs Bertoldo di Giovannis. Hier lässt sich der Wandel von einer kulturgeschichtlichen Perspektive hin zu einer historisch-kritischen Analyse der Statuetten verfolgen. Mit der Transformation der so genannten „Kopienkritik“ aus der klassischen Archäologie und mit Hilfe der Fotografie entwickelte Wilhelm von Bode eine Methode für die stilkritische Analyse der kleinformatigen Skulpturen.
Die Zöliakie ist eine immunvermittelte Systemerkrankung, die durch den Konsum glutenhaltiger Nahrung ausgelöst werden kann. Hierbei spielen sowohl eine genetische Prädisposition als auch verschiedene Umweltfaktoren eine Rolle. Die wissenschaftliche und gesellschaftliche Relevanz der Zöliakie hat in den letzten 25 Jahren zunehmend an Bedeutung gewonnen. Was man heute über die Erkrankung weiß, ist Ergebnis einer Vielzahl von Studien und Veröffentlichungen.
Ziel dieser Arbeit war anhand von szientometrischen Analysen ein umfassendes Bild über diese Forschungslandschaft zu erstellen. Es wurden dabei sowohl quantitative als auch qualitative Analyseverfahren zur Anwendung gebracht.
Ziel dieser Arbeit war es, die Zytotoxizität von Treosulfan und Busulfan auf Leukämiezellen von pädiatrischen Patienten mit Akuten Leukämien zu untersuchen. Im Rahmen dieser Arbeit wurden in vitro und erste in vivo Untersuchungen durchgeführt: 1. In vitro Untersuchungen Zuerst wurde eine durchflusszytometrische Methode optimiert zum Nachweis der Zytotoxizität von Treosulfan und Busulfan auf maligne Zellen pädiatrischer Patienten mit Akuten Leukämien. Mit diesem durchflusszytometrischen Assay war es möglich, die Zytotoxizität auf maligne von der auf nicht maligne Zellen zu unterscheiden. Dies war unerlässlich, da in den frisch isolierten Leukämiezellen der Patienten bis zu 55% normale Lymphozyten enthalten waren. Darüber hinaus erlaubte diese Methode die simultane Bestimmung der Zell-Apoptose in jeder Probe. An Leukämie-Zelllinien wurde dieser multiparametrische Assay anschließend mit dem MTT-Assay verglichen. Es konnte gezeigt werden, dass die Bestimmung von Zytotoxizitäten mit beiden Methoden an den Zelllinien Molt 4/8 und H9 gut korrelierte (r≥0,95). Für das Arbeiten mit Patientenmaterial wurde ausschließlich die durchflusszytometrische Methode angewendet, da in den Proben der Patienten die Differenzierung zwischen leukemischen Zellen und normalen Lymphozyten essentiell war. In den Leukämie-Zelllinien Molt4/8, H9 und K562 zeigte sich, dass Treosulfan eine stärkere Zytotoxizität zeigte als Busulfan. In die Untersuchungen frischer Leukämiezellen pädiatrischer Patienten mit Akuten Leukämien konnten 24 Proben unterschiedlicher Leukämien (cALL, reife B-ALL, reife TALL, AML) und unterschiedlicher Erkrankungszeitpunkte (bei Diagnose oder bei Rezidiv) eingeschlossen werden. In diesen Proben zeigte Treosulfan eine deutlich bessere Wirkung als Busulfan. Es wurde trotz des kleinen Patientenkollektivs deutlich, dass die T-ALL gegenüber der cALL sensitiver auf Treosulfan reagiert. Außerdem war die Zytotoxizität von Treosulfan und Busulfan gegenüber der T-ALL signifikant höher als gegenüber c-ALL (Treosulfan: p=0,02, Busulfan: p=0,03). Die IC50-Werte stiegen vom Zeitpunkt der Diagnose (Median: Treosulfan: 11,45 μM, Busulfan: 96,45 μM) über die Progression (Median: Treosulfan: 45,95 μM, Busulfan: 253,75 μM) bis zum Rezidiv (Median: Treosulfan: 153,15 μM, Busulfan: 223,3 μM) hin an, und zwar um das 8-fache bei Treosulfan und das 2,5-fache bei Busulfan. Der Unterschied der Zytotoxizität von Treosulfan auf Leukämieproben zum Zeitpunkt der Diagnose gegenüber dem Rezidiv war statistisch signifikant (p=0,02). Für Busulfan ergab sich für diese Untersuchungszeitpunkte keinen signifikanten Unterschied (p=0,13). Vergleichend zu den Ergebnissen an frisch isolierten Leukämiezellen wurde die Wirkung von Treosulfan und Busulfan auf normale Lymphozytensubpopulationen und Stammzellen untersucht. Auch hier zeigte Treosulfan eine stärkere Zytotoxizität im Vergleich zu Busulfan. Insgesamt reagierten normale Lymphozyten sensitiver auf die Alkylanzien im Vergleich zu den Leukämiezellen (Mediane IC50-Werte für Treosulfan und Busulfan auf Lymphozyten: 12,3 μM und 89,9 μM, auf Leukämieproben: 30,6 μM und 133 μM mit p=0,03 und p=0,02). In einem weiteren Experiment sollte die Interaktion von Treosulfan und Busulfan mit Fludarabin untersucht werden. Fludarabin ist ein Purin-Analogon, das in der Pädiatrie in Kombination mit Alkylanzien zur Chemo-Konditionierung eingesetzt wird. Bei der Inkubation von Fludarabin mit Treosulfan-Konzentration größer 1 μM war ein deutlicher Synergismus zu verzeichnen. Die Kombination von Fludarabin mit Busulfan ergab Antagonismus. 2. In vivo Untersuchungen Es wurde die zelluläre Immunrekonstitution bei pädiatrischen Patienten mit AML (n=9) nach allogener Knochenmarktransplantation überwacht. Ein Patient wurde mit Treosulfan konditioniert (n=1), die anderen Patienten (n=8) erhielten Busulfan zur Konditionierung. Die Rekonstitution der Leukozyten, B-Zellen, NK-Zellen und T-Helferzellen verlief in beiden Gruppen ähnlich. Ein signifikanter Unnterschied konnte für die Rekonstitution der CD3+CD8+ zytotoxischen T-Zellen gezeigt werden, die bei dem Patienten, der mit Treosulfan konditioniert wurde, signifikant niedriger war im Vergleich zur Busulfangruppe. Da bei dem Patienten, der Treosulfan erhielt, die CRP-Werte über einen längeren Zeitraum erhöht waren und Infektionen die Rekonstitution von zytotoxischen T-Zellen maßgeblich beeinflussen, bietet dies eine mögliche Erklärung für diesen Unterschied. Aussagen können jedoch nur mit einem größeren Patientenkollektiv getroffen werden.
In der vorliegenden Studie wurden 7 Dentin-Adhäsive (Adper Prompt-L-Pop, Prompt L-Pop, Xeno III, I-Bond, One-up-Bond, Prime&Bond NT, Scotchbond 1) bezüglich ihrer Zytotoxizität anhand primärer Gingivafibroblasten im Zellkulturtest untersucht. Die Studie wurde in Vorversuche und Hauptversuche unterteilt. Die Vorversuche dienten unter anderem dazu, im vornherein den pH-Wert zu bestimmen und die Dentin-Adhäsive auf ihre Viskosität in der Petrischale hin zu untersuchen. In den Hauptversuchen wurden die Eluate nach 24 und nach 48 Std. anhand der Parameter „lebende Zellen“ und „tote Zellen“ mittels des Cell Counters ausgewertet. Dem gegenüber stehen deskriptive Ergebnisse die keine statistische Relevanz haben. Die Ergebnisse bezüglich der Zytotoxizität lassen sich wie folgt zusammenfassen: • Scotchbond1, I-Bond und Prime&Bond NT weisen signifikant weniger lebende Zellen auf als die Zellkontrolle. Zueinander erwiesen sich die Materialien als nicht signifikant unterschiedlich. • Adper Prompt-L-Pop, Prompt-L-Pop, Xeno III und One-up-Bond sind bezüglich der Parameter „lebende Zellen“ und „tote Zellen“ nicht signifikant unterschiedlich zur Zellkontrolle. • Der Parameter „tote Zellen“ ergab keinerlei statistische Signifikanz. • Die qualitative Auswertung stimmt mit der quantitativen Ergebnisdarstellung überein. Unter der Limitation dieser in-vitro-Studie kann keine Empfehlung für die klinische Anwendung der Dentinadhäsive „Scotchbond 1“, „I-Bond“ und „Prime&Bond NT“ abgegeben werden.
In der vorliegenden Studie wurden fünf Dentinadhäsive (Prime & Bond, Optibond Solo, Scotchbond, Syntac Single Component und Syntac Sprint) sowie ein Gemisch aus Phosphor- und Flusssäure bezüglich ihrer Zytotoxizität anhand des Agar-Diffusionstests mit humanen Gingivafibroblasten untersucht. In den Vorversuchen wurden die zu testenden Haftvermittler auf sterilen Deckgläsern angesetzt, den gezüchteten Zellen ausgesetzt und deren Reaktion mittels Mikroskop beurteilt. Mittels dieser Vorversuche sollte untersucht werden, inwieweit überhaupt eine Zytotoxizität unter den zu testenden Mitteln vorlag oder ob es auch Mittel gab, die gar nicht toxisch auf die Zellen wirkten. In den ersten drei Hauptversuchen wurden die Dentinscheiben der Größe 500 mikro m, 400 mikro m, 300 mikro m, 200 mikro m und 100 mikro m zur Konditionierung mit dem Gemisch aus Phosphor- und Flusssäure vorbehandelt, mit dem jeweiligen Haftvermittler nach Vorschrift bedeckt und nachfolgend auf die gezüchteten Zellen aufgelegt. Der vierte Versuch diente dem direkten Vergleich zwischen dem in dieser Studie verwendeten Ätzgemisch und dem in einer vergleichbaren Studie verwendeten Ätzmittel Conditioner 36. In der vorliegenden Studie konnte eine Zytotoxizität aller untersuchten Dentinadhäsive und auch des untersuchten Gemischs aus Phosphor- und Flusssäure beobachtet werden. In der Gruppe der Dentinadhäsive schnitt das Material Optibond Solo am besten ab, gefolgt von Scotchbond, Prime & Bond und Syntac Single Component. Die stärkste Zytotoxizität wies das Material Syntac Sprint auf. Auch das Ätzmittelgemisch aus Phosphor- und Flusssäure war im Vergleich zu dem Testpartner Conditioner 36 gleich schädlich für die Gingivafibroblastenzellen.
In der vorliegenden Arbeit soll der Ursprung der typischen Hirn-Gliederung bei Wirbeltieren (die sich auch beim Gehirn des Menschen findet) untersucht werden. Es wurde der Versuch gemacht, die evolutive Entwicklung des Wirbeltier-Gehirns bis zu einem sehr frühen Zeitpunkt zurückzuverfolgen. Zu diesem Zweck wurde das vordere (rostrale) Ende des Zentralnervensystems (ZNS) des adulten Lanzettfisches (Branchiostoma lanceolatum, B. lanceolatum), einem Verwandten der Wirbeltiere, mit verschiedenen histologischen Methoden (diverse Färbungen, Tracing, Rasterelektronenmikroskopie) untersucht. Mittels der gewonnenen Daten konnten die Zytoarchitektur und die topografischen Beziehungen der Zellgruppen in diesem Bereich beschrieben werden. Der histologische Aufbau des erwachsenen ZNS gab Hinweise darauf, wie sich einzelne Strukturen im larvalen ZNS durch die Metamorphose verändern. Embryonale Genexpressions-Muster, die bei Wirbeltieren bestimmte, morphologisch unterscheidbare Abschnitte des Gehirns charakterisieren, finden sich auch bei der Branchiostoma-Larve. Ihnen konnte ein charakteristisches Muster im histologischen Aufbau des ZNS bei erwachsenen Tieren zugeordnet werden. Die Unterteilung und die gefundenen Zellgruppen zeigen teilweise Gemeinsamkeiten zu Strukturen im Wirbeltier-Gehirn, eine direkte Homologisierung ist allerdings problematisch. Es wurde daher auf kladistischer Grundlage der Versuch gemacht, über eine Zusammenschau von Merkmalen das ancestrale ZNS des letzten gemeinsamen Vorfahren von Lanzettfischen und Wirbeltieren zu rekonstruieren.
Zyklotronresonanzen von Ionen im hochfrequenz-modulierten magnetisch fokussierten Elektronenstrahl
(2000)
Ein Prototyp einer Kombination aus Penningfalle und EBIS/T wurde im Rahmen dieser Arbeit entwickelt. Dazu wurde ein Standard NMRMagnet erfolgreich so umgebaut, daß er in Bezug auf Vakuum, Temperatur und Temperaturbeständigkeit den Erfordernissen einer EBIS/T als Ionenfalle entspricht. Diese Apparatur ermöglicht nun die Untersuchung der in der EBIS/T erzeugten Ionen mit den Methoden der 'Fallenphysik'. Die Anregung der Ionen in der Falle wurde hier erstmals durch Hochfrequenzmodulation des Elektronenstroms über die Wehneltelektrode der Elektronenkanone durchgeführt. Messungen haben gezeigt, daß man in der EBIS/T erzeugte Ionen selektiv nach ihrem Verhältnis von Masse zu Ladung mit der Modulation in Resonanz bringen kann, bis sie den Elektronenstrahl verlassen. Die Ionen besitzen auch im dichten Elektronenstrahl eine charakteristische Eigenfrequenz, die zwar von der Raumladung in der Falle abhängt, mit der jedoch trotzdem eine Resonanzanregung durchgeführt werden kann. Im Experiment bestätigte sich die Vorhersage für die Mindestdauer der Anregung in der Größenordnung von Mikrosekunden und für Relaxionszeiten der kohärenten Ionenbewegungen im Bereich von Millisekunden, was eine grundsätzliche Voraussetzung für eine resonante Separation verschiedener Ionensorten darstellt. Die auftretenden Eigenfrequenzen der unterschiedlichen Ionen lassen sich theoretisch und im Einklang mit numerischen Simulationen beschreiben. Die Anregung der Eigenfrequenzen von Ionen über den Elektronenstrahl funktioniert bis zu so hohen Ionendichten, wie sie in einer EBIS vorkommen. Ionenmanipulationen, wie man sie von den Penningfallen her kennt, lassen sich auf ein Ionenensemble mit bis zu 10 10 Ionen pro cm 3 übertragen. Die gemessenen Verschiebungen der Eigenfrequenzen gegenüber der Zyklotronfrequenz geben darüber hinaus Aufschluß über den Kompensationsgrad des Elektronenstrahls in der EBIS/T und können damit als wichtiges Diagnosehilfsmittel für die Optimierung von ElektronenstrahlIonenquellen verwendet werden. Läßt man die Resonanzanregung kontinuierlich einwirken, so tritt überraschenderweise eine Erhöhung des Anteils an hochgeladenen Ionen in der EBIS/T auf. Darüberhinaus konnte experimentell gezeigt werden, daß die hochgeladenen Ionen auf der Achse des Elektronenstrahls konzentriert werden, während niedrig geladene Ionenen dort verschwinden und bevorzugt den äußeren Strahlbereich bevölkern. Die Erklärung dafür ist, daß durch kontinuierliches Entfernen dieser niedrig geladenen Ionen aus dem Elektronenstrahl eine vollständige Kompensation der Raumladung des Elektronenstrahls verhindert wird. Dadurch lassen sich Ionen in der Ionenquelle über einen längeren Zeitraum züchten. Vorteilhafterweise drängt die Anregung über eine Modulation des Elektronenstrahls im Gegensatz zu der normalen Dipolanregung bevorzugt niedrig geladenen Ionen, mit größerer Aufenthaltswahrscheinlichkeit am Rand, aus dem Elektronenstrahl. Dies führt zu einer verstärkten CoulombKühlung der hochgeladenen Ionen und konzentriert diese in der Mitte des Strahls, wo die Anregung fast unwirksam ist. Diese Kühlkraft wirkt als Zusammenspiel der attraktiven radialen Kraft des nicht vollständig raumladungskompensierten Elektronenstrahls und der Coulombstöße der Ionen untereinander. Durch diese Methode der Kühlung der Ionen untereinander können verstärkt Ionen hoher Ladungszustände in der Ionenquelle konzentriert werden. Der Vorgang der Kühlung durch Coulombstöße konnte mit einem Modell beschrieben werden, bei dem die thermische Verteilung aller Ionen im Elektronenstrahl einer Boltzmann Verteilung folgt. Das Modell benutzt vier Kräfte: die magnetische Kraft, die elektrische Haltekraft des Elektronenstrahls, die periodische elektrische Anregungskraft und die Reibung der Ionen proportional zu ihrer Geschwindigkeit und ihres Ladungszustandes bzw. die Stöße der Ionen untereinander. Die Resonanzanregung im Raumladungspotential sowie die Aufenthaltsverteilung der Ionen im Elektronenstrahl konnten damit dargestellt werden. Für Präzisionsexperimente an hochgeladenen Ionen bietet sich die Kombination aus einer EBIS/T mit integrierter Penningfalle an. Die Experimente haben gezeigt, daß es möglich ist, Ionenspektren mit einem eingekoppelten Wechselfeld in dem Ionisationsraum der EBIS/T zu separieren und zu reinigen. Für die Zukunft wünscht man sich aber eine größere Effektivität für das vollständige Entfernen bestimmter Ionensorten. Dies kann man erreichen, indem man den Elektronenstrahl noch dichter mit der Ionisationsröhre umschließt. Durch die kontinuierliche Resonanzanregung profitiert man von einer längeren Einschlußzeit für die stufenweise Ionisierung zu höheren Ladungszuständen und/oder eröffnet ElektronenstrahlIonenquellen neue Einsatzmöglichkeiten unter schlechteren Vakuumbedingungen. Die verstärkte Kühlung und Zentrierung der Ionen auf der Achse während dieses Betriebsmodus verbessert die Emmitanz von ElektronenstrahlIonenquellen. Für die Zukunft kann man sich eine EBIS mit moduliertem Elektronenstrahl auch im Strahlweg niederenergetischer hochgeladener Ionen zum Verbessern deren Emittanz vorstellen. Die im Elektronenstrahl erzeugten und sich selbst kühlenden Ionen wirken durch Coulombstöße als Kühlmedium ohne die Gefahr der Umladung wie bei gasgefüllten hfQuadrupolen.
... Die drei Unternehmen, aus deren Geschichte hier erzählt wird, Bayer, Hoechst und Schering, waren bis zum Ende des Zweiten Weltkrieges Chemiekonzerne, die u.a. auch Arzneimittel herstellten und verkauften. Als erste Firma hat sich Schering nach dem Zweiten Weltkrieg weitgehend auf Pharmazeutika konzentriert und sich wie Hoechst am Ende des Jahrhunderts ganz von seinen Chemieaktivitäten getrennt. Allein Bayer bietet weiterhin eine breite Palette von chemischen Produkten an. ...
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Die Dissertation mit dem Titel „Zwischen Inter- und Transnationalismus: Die Kommunikationspolitik der UNESCO nach 1989/1990“ von Sami Rabieh widmet sich dem Wandel in der UNESCO-Kommunikationspolitik seit dem Ende des Ost-West Konflikts, um zu klären, welche demokratisierenden Gestaltungspotenziale eine auf die Organisation gerichtete Kommunikationspolitik bietet und welche anderen Pfade gegebenenfalls noch darüber hinaus beschritten werden müssen. Aufbauend auf v.a. gramscianischen Theoriesträngen werden zunächst aktuelle soziale Transformationsprozesse („Globalisierung“) als Interpretationsrahmen für die Analyse der UNESCO dargestellt. Dem folgt eine historische Aufarbeitung der internationalen Kommunikationspolitik bzw. der UNESCO bis 1989/1990 sowie ein empirischer Teil, der die Entwicklung der Organisation im Politikfeld bis in die Gegenwart untersucht. Eine Synopse und Erörterung alternativer Handlungsoptionen schließen die Arbeit ab. Zusammengenommen erweist sich die Eingangsthese zur Herausbildung eines transnationalen Systems und die damit verbundene Skepsis bezüglich der Demokratisierungspotentiale inter-staatlicher Apparate als korrekt. Die politische Form und Praxis der UNESCO, in der ausschließlich Staatenvertreter zu Kommunikationsprozessen und Entscheidungen fähig und befugt sind, hat im Internetzeitalter keine Grundlage mehr und wird wegen neuer politischer Terrains sowie der Beliebtheit amerikanischer Pop- und Cyberkulturen kein „comeback“ mehr erleben. Emanzipatorische Strategien sollten sich deshalb auf eine basisdemokratische Vernetzung mittels neuer Medien konzentrieren.
Mit der Bereitstellung des 208Pb-Strahls durch das CERN-SPS können seit Herbst 1994 Kollisionen schwerster Kerne bei den höchsten zur Zeit in Schwerionenbeschleunigern erreichten Einschußenergien untersucht werden.
Ziel dieser Arbeit ist die Untersuchung der raumzeitlichen Entwicklung von zentralen Pb-Pb-Kollisionen bei 158 GeV/Nukleon. Diese Untersuchung wurde im Rahmen des Experimentes NA49 durchgefüuhrt und stützt sich auf die Analyse von Bose-Einstein-Korrelationen identischer Pionen. Die Auswertung von rund 40000 zentralen Ereignissen, die in zwei verschiedenen Magnetfeldkonfigurationen mit der zweiten Vertex-Spurendriftkammer des NA49-Experimentes aufgezeichnet wurden, erlaubt hierbei eine annähernd vollständige Untersuchung des pionischen Phasenraumes zwischen zentraler Rapidität und der Projektilhemisphäre.
Auf der experimentellen Seite stellt der Nachweis von mehreren hundert geladenen Teilchen pro Ereignis eine große Herausforderung dar. Daher werden in dieser Arbeit die Optimierung von Spurendriftkammern sowie die verwendeten Analyseverfahren und die erreichte experimentelle Auflösung ausführlich diskutiert. Dabei zeigt sich, daß der systematische Einfluß der erreichten Impuls- und Zweispurauflösung auf die Bestimmung der Bose-Einstein-Observablen vernachlässigbar ist.
Die Messung von Korrelationen ungleich geladener Teilchen bestätigt die Beobachtungen früherer Untersuchungen, wonach die Gamowfunktion als Coulombkorrektur der Bose-Einstein-Korrelationsfunktionen in Schwerionenexperimenten nicht geeignet ist. Ein Vergleich mit einem Modell zeigt, daß diese Messungen konsistent sind mit der Annahme einer endlichen Ausdehnung der Pionenquelle von rund 6 fm. In dieser Arbeitwird zur Korrektur daher eine Parametrisierung der gemessenen Korrelationsstärke ungleich geladener Teilchen benutzt, wodurch die systematischen Unsicherheiten bei der Auswertung der Bose-Einstein-Korrelationsfunktionen erheblich reduziert werden konnten.
Die Auswertung der Bose-Einstein-Korrelationen im Rahmen des Yano-Koonin-Podgoretskii-Formalismus erlaubt eine differentielle Bestimmung der longitudinalen Expansionsgeschwindigkeit. Dabei ergibt sich das Bild eines vornehmlich in longitudinaler Richtung expandierenden Systems, wie es bereits in Schwefel-Kern-Reaktionen bei vergleichbaren Einschußenergien beobachtet wurde. Die Transversalimpulsabhängigkeit der transversalen Radiusparameter ist moderat und verträglich mit einer mäßigen radialen Expansion, deren quantitative Bestätigung allerdings im Rahmen von Modellrechnungen erfolgen muß.
Im Rahmen eines einfachen hydrodynamischen Modells kann die Lebensdauer des Systems zu 7-9 fm/c bei schwacher Abhängigkeit von der Rapidität bestimmt werden. Die Zeitdauer der Pionenemission beträgt etwa 3-4 fm/c und wird damit erstmals in ultrarelativistischen Schwerionenreaktionen als signifikant von Null verschieden beobachtet.
Die Auswertung der Korrelationsfunktion unter Verwendung der Bertsch-Pratt-Parametrisierung liefert Ergebnisse, die mit denen der Yano-Koonin-Podgoretskii-Parametrisierung konsistent sind. Dasselbe gilt für den Vergleich der Analyse positiv und negativ geladener Teilchenpaare sowie unter Verwendung verschiedener Bezugssysteme.
Ein Vergleich mit den Ergebnissen von Schwefel-Kern-Reaktionen deutet an, daß die in Pb-Pb ermittelten Ausfriervolumina nicht mit dem einfachen Bild eines Ausfrierens bei konstanter Teilchendichte vereinbar sind. Vielmehr scheint das Pb-Pb-System bei niedrigerer Dichte auszufrieren. Dies läßt darauf schließen, daß die Ausfrierdichte über die mittlere freie Weglänge mit der Größe des Systems zum Zeitpunkt der letzten Wechselwirkung verknüpft ist.
1. Analysiert werden die Daten aus dem Pädiatrischen Register für Stammzelltransplantation der Patienten, die nach einer ersten Stammzelltransplantation ein Folgerezidiv erlitten und mit einer zweiten Transplantation behandelt wurden.
2. In dem erfassten Zeitraum von 1988 bis 2007 sind im PRST 158 Patienten als Zweit-SZT nach Folgerezidiv erfasst. Letztlich konnten 106 Patienten in die Analyse aufgenommen werden.
3. Von den 106 pädiatrischen Patienten, die mit einer zweiten Transplantation wegen eines Rückfalls nach erster Transplantation bei ALL, AML und MDS behandelt wurden, haben 33 Patienten (ca. 30 %) ein ereignisfreies Langzeitüberleben erreicht. Aufgrund der vielen frühen Ereignisse fällt die Kaplan-Meier-Überlebenskurve auf errechnete 12 %. Die Nachbeobachtungszeit beträgt dabei im Mittel 27,5 Monate. Ein erneutes Rezidiv führt in der Regel zum Versterben des Patienten an einer Progression der Grunderkrankung. Lediglich 1 Patient mit ALL dieser Gruppe lebt in CR nach 3. Stammzelltransplantation. Dies entspricht einem Overall Survival von 32 %. Diese Daten sind vergleichbar mit den in der Literatur mitgeteilten.
4. Eine Analyse der in Frankfurt betreuten Patienten zeigt, dass nur 20% der Patienten mit Rezidiv nach 1.SZT zu einer 2.SZT gelangen. Auch dies entspricht den in der Literatur berichteten Ergebnissen.
5. Mädchen haben eine bessere Prognose als Jungen, insbesondere Mädchen jünger als 10 Jahre zum Zeitpunkt der Zweiten Transplantation zeigen ein ereignisfreies Überleben von 42 %.
6. Die Toxizitätsanalysen zeigen, dass die Hälfte der Ereignisse durch Transplantations-abhängige Mortalität bedingt ist. Die Verwendung eines Konditionierungsregimes mit reduzierter Intensität und erhofft reduzierter Toxizität verringert interessanterweise nicht die TRM-Rate, wohl aber die Rückfall-Rate.
7. Ein Mindestabstand von 200 Tagen zwischen den beiden Transplantationszeitpunkten führt zu einem signifikant besseren Ergebnis beim ereignisfreien Überleben, dabei kann nicht mit ausreichender Signifikanz gesagt werden, dass die Remissionsdauer nach 1. SZT in unserem Kollektiv von Bedeutung ist für das Langzeitüberleben, auch wenn ein Trend erkennbar ist. Remissionsdauern von mehr als 9 Monaten nach 1.SZT haben keinen zusätzlichen positiven Einfluß auf das Langzeitüberleben.
8. Patienten mit akuter Leukämie müssen vor einer zweiten Transplantation in einer morphologischen Remission sein, um eine realistische Chance auf Heilung zu haben.
9. Patienten, die nach 2003 einer Zweittransplantation unterzogen wurden, schneiden nicht signifikant besser ab, als die vor dem Jahr 2003 transplantierten. Dafür gibt es sicher eine Reihe von Gründen, die analysiertern Gruppen unterliegen aber einem BIAS. Unter anderem ist die Verteilung der Erkrankungen nicht gleich. Aber auch die unterschiedlich langen Remissionszeiträume deuten an, dass vor 2003 eine etwas andere Patientengruppe zweittransplantiert wurde als nach 2003. Die unterschiedlichen Mediane der Zeitintervalle zwischen den beiden Transplantationen mit einem deutlich längeren Zeitintervall in der Gruppe der nach 2003 transplantierten zeigen weiterhin an, dass insgesamt ein anderes therapeutisches Verhalten nach dem Rückfall nach erster Transplantation eingenommen wird und eine längere Intervallbehandlung in das Therapiekonzept eingeschlossen wird.
10. Die Patienten profitieren von akuter GvH bezüglich des ereignisfreien Überlebens. Höhergradige akute GvH führt aber entweder zu TRM oder mündet in ausgedehnter chronischer GvH. Auch chronische GvH bietet einen Schutz vor Rückfall. Aussagen über die Lebensqualität dieser Patienten können aus den gewonnenen Daten nicht gemacht werden.
11. Während ein Spenderwechsel bei 2. SZT offensichtlich nicht zu einem besseren Ergebnis beiträgt, zeigen Transplantationen von einem mismatch Spender und Transplantationen mit einem T-Zell-depletierten Graft ein gleichwertiges Ergebnis zu konventionellen Transplantationen. Die -allerdings sehr- kleine Gruppe der Patienten, die mit RIC konditioniert und von einem CD3/CD19 depletierten Grafteines haploidenten Familienspender transplantiert wurden, haben mit einem Overall Survival von 5/5 und einem EFS von 4/5 ein exzellentes Ergebnis. Ob dieses Behandlungskonzept zu einem besseren Outcome führen kann, muß in Zukunft aber noch an größeren Fallzahlen gezeigt werden.
12. Die in Frankfurt betreuten, lebenden Patienten zeigen durchweg eine zufriedenstellende bis gute Lebensqualität. Eine Frankfurter Patientin ist an eine ausgedehnten chronischen GvH nach langem schwerem Verlauf mit sehr eingeschränkter Lebensqualität gestorben.
13. Zweitmalignome sind ausser dem detailliert beschriebenen Frankfurter Patienten keine weiteren bisher berichtet worden. Nach den PRST- Daten ist ein Folge-Rezidiv nach erster Stammzelltransplantation bei ALL, AML und MDS therapeutisch keine ausweglose Situation und ein erneuter kurativer Behandlungswunsch der Patienten und ihrer Familien sollte unterstützt werden. Um aussagefähige Daten zu erhalten, sind allerdings prospektiv durchgeführte Studien erforderlich, die neben der Frage der optimalen SZT-Modalitäten zusätzlich auch Aussagen zur Lebensqualität treffen können müssen.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
Um die Funktionsweise von biologischen Prozessen zu untersuchen, werden Trigger-Signale benötigt, die die Prozesse initiieren können, ohne dabei dem Organismus zu schaden oder Nebenreaktionen hervorzurufen. Ein geeignetes Trigger-Signal stellt Licht dar, da es bei geeigneter Wellenlänge nichtinvasiv ist und nur wenige biologische Prozesse durch Licht gesteuert werden. Um einen Prozess mit Licht aktivierbar zu machen, benötigt man eine lichtsensitive Einheit, beispielsweise eine photolabile Schutzgruppe, die durch die Bestrahlung mit Licht einen zuvor blockierten Bereich freisetzt.
Hauptziel dieser Arbeit war es die Zweiphotonen-Technik für die Photolyse von photolabil geschützten Oligonukleotiden nutzbar zu machen und das Photolyseergebnis zu visualisieren.
Dazu wurden zunächst verschiedene mit Zweiphotonen-sensitiven Schutzgruppen modifizierte Phosphoramidite synthetisiert und über Festphasensynthese in Oligonukleotide eingebaut. Die Oligonukleotide mit den erstmals neu eingebauten Schutzgruppen ANBP und hNDBF wurden zunächst auf ihre Einphotonen-Eigenschaften, wie Schmelzpunkt, Absorptionsverhalten und Quantenausbeute untersucht. Weiterhin wurden erste Versuche zur wellenlängenselektiven Photolyse von hNDBF- und ANBP-geschützten Oligonukleotiden durchgeführt.
Die Existenz eines Zweiphotonen-induzierten Effekts kann durch die quadratische Abhängigkeit des erzeugten Effekts von der eingestrahlten Leistung nachgewiesen werden. Dazu wurde ein Verdrängungs-Assay entwickelt, dessen Doppelstrang-Sonde aus einem FRET-Paar besteht. Der Fluorophor-markierte Strang dient dabei als Gegenstrang zum photolabil geschützten Strang. Durch einen Thiol-Linker am photolabil geschützten Oligonukleotid konnte dieses erfolgreich in Maleimid-Hydrogele immobilisiert werden und der Verdrängungs-Assay im Gel durchgeführt werden. Die immobilisierten Stränge enthielten DEACM bzw. ANBP Schutzgruppen. Neben der quadratischen Abhängigkeit der Photolyse von der eingestrahlten Leistung konnten in diesen Hydrogelen auch 3D-aufgelöste Photolysen realisiert werden, die eindeutig die Zwei-Photonen-Photolyse belegen. Diese 3D-Experimente wurden zusammen mit Dr. Stephan Junek am MPI für Hirnforschung durchgeführt. Durch die Wahl zweier unterschiedlicher Sequenzen für die dTDEACM und dGANBP modifizierten Stränge und zwei unterschiedlicher Fluorophore für die Doppelstrang-Sonden, konnte die orthogonale Zweiphotonen-Photolyse gezeigt werden. Um zu zeigen, dass die Zweiphotonen-Photolyse von Oligonukleotiden auch in Organismen realisiert werden kann ohne das biologische System zu schädigen, wurde versucht den Verdrängungs-Assay auch in Zellen durchzuführen. Durch die Verwendung der Patch-Clamp-Technik in Zusammenarbeit mit Dr. Stephan Junek am MPI für Hirnforschung konnten die Stränge über die Elektrolyt-Lösung in Hippocampus-Neuronen eingebracht werden und durch Zweiphotonen-Bestrahlung dort photolysiert werden, was zu einem deutlichen Fluoreszenzanstieg führte. Durch die angeschlossene Patch-Clamp-Pipette konnten so zusätzlich elektrophysiologische Messungen durchgeführt werden, die zeigten, dass die durchgeführte Zweiphotonen-Bestrahlung nicht invasiv für die Zellen ist.
Die durchgeführten Experimente beweisen, dass Zweiphotonen-sensitive Schutzgruppen auf Oligonukleotiden photolysiert werden können und dass ihr Einsatz auch in biologischen Systemen möglich ist. Der entwickelte Verdrängungs-Assay ermöglicht es weiterhin neue photolabile Schutzgruppen auf Oligonukleotiden auf ihre Zweiphotonen-Sensitivität zu untersuchen.
Ein weiteres Projekt beschäftigte sich mit der Synthese der neuen Schutzgruppe DMA-NDBF-OH, die in-silico von der Arbeitsgruppe von Prof. Andreas Dreuw aus Heidelberg als effiziente Zweiphotonen-sensitive Schutzgruppe beschrieben wird. Es wurde versucht DMA-NDBF-OH über zwei Syntheserouten herzustellen. Eine Route basierte auf der Einführung der Funktionalitäten an einem unmodifizierten Dibenzofuran, die leider an der Bromierung der Seitenkette scheiterte. Die zweite Syntheseroute wurde in Anlehnung an die NDBF-Synthese von Deiters et al., bei der das Dibenzofuran durch eine Kondensation zweier modifizierter Benzolringe und einem Pd-katalysierten Ringschluss aufgebaut wird, durchgeführt. Mit dieser Syntheseroute konnte das DMA-NDBF-OH erfolgreich synthetisiert werden. Aufgrund ihrer starken bathochromen Verschiebung sollte sich diese Schutzgruppe hervorragend für die wellenlängenselektive Photolyse auf Ein- und Zweiphotonenebene eignen.
Die in der vorliegenden Arbeit gewonnenen Erkenntnisse zur Reaktivität zweifach reduzierter 9,10-Dihydro-9,10-diboraanthracene [A]2– erweitern das Einsatzspektrum von Hauptgruppenverbindungen im Hinblick auf die Aktivierung kleiner Moleküle. Komplementär zu Übergangsmetallkomplexen und FLPs ermöglichen die Salze M2[A] (M+ = Li+, Na+, K+) die Entwicklung neuartiger Synthesestrategien. Als besondere Herausforderung gilt die Aktivierung des stabilen H2-Moleküls, dessen Bindung die Dianionen [A]2– homolytisch in einer konzertierten Reaktion spalten.
Untersuchungen zur Kinetik der H2-Addition an M2[A] stellten die Abhängigkeit dieses Reaktionsschritts vom borgebundenen Substituenten und vom Kation heraus. Eine geringe sterische Abschirmung der Boratome durch kleine borgebundene Substituenten (C≡CtBu, Me, H) begünstigt die H2-Aufnahme gegenüber großen Substituenten (pTol, Xyl, Et). Die maximale Ausbeute an M2[A-H2] wird für M+ = Li+ erst nach mehreren Tagen bei 100 °C erhalten, während einige Stunden bei nur 50 °C für die quantitative Bildung von K2[A-H2] ausreichen.
Unter den Salzen M2[A] eignet sich Li2[68] mit borgebundenen Me-Substituenten besonders gut für den Einsatz als Hydrierungskatalysator. Mit Li2[68] konnten das Imin Ph(H)C=NtBu, das terminale Alken Ph2C=CH2 und Anthracen erfolgreich im NMR-Maßstab hydriert werden (Katalysatorladung 37 mol%, THF-d8, 1 atm H2-Initialdruck, 100 °C, 16 h). Im Reaktionsautoklaven war für die Hydrierung von Ph(H)C=NtBu eine Verringerung der Katalysatorladung auf 10 mol% Li2[68] möglich (THF, 7 atm H2-Initialdruck, 100 °C, 18 h). Konkurrenzreaktionen begründen Einschränkungen in Bezug auf die Substratpalette, da M2[68] (M+ = Li+, Na+) mit elektronenarmen ungesättigten Verbindungen, die C=C-, C≡C-, C=O- oder C=N-Bindungen enthalten, [4+2]-Cycloadditionsprodukte bilden können. Die Reversibilität dieser Reaktion entscheidet, ob Li2[68] als Katalysator fungiert oder irreversibel in den Strukturen gebunden bleibt.
Vielseitiger sind die H2-Aktivierungsprodukte M2[A-H2] als H–-Donoren geeignet: Na2[68-H2] ersetzt Halogenid- durch H–-Substituenten in Bromethan, sowie in Chlorsilanen und PCl3; CO2 wird in Natriumformiat überführt. Unabhängig von der Anzahl der Chlorliganden werden die Produkte immer vollständig hydriert. Eine erneute Reduktion von 68 kann wieder Na2[68] bereitstellen, das H2 aufnimmt und Na2[68-H2] regeneriert, welches für neue H–-Abgaben zur Verfügung steht. Bei der experimentellen Umsetzung des Kreislaufs ist es wichtig, die beschriebenen Reaktionsschritte nacheinander auszuführen und jeweils nur stöchiometrische Mengen des Elektrophils zuzugeben. Bei Abweichungen vom schrittweisen Syntheseprotokoll finden formale nukleophile Substitutionen mit M2[68] statt und monoanionische Spezies entstehen, z. B. wenn Et3SiBr als Elektrophil anwesend ist.
Gegenüber CO2 zeigt Li2[68] eine hohe Reaktivität, durch die selektiv CO und [CO3]2– gebildet werden. Wie zuvor bei den H–-Transferreaktionen ermöglicht die Reduktion der Neutralverbindung 68 die Regeneration von Li2[68].
Die Dianionen [A]2– stechen unter anderen cyclischen Borverbindungen in niedrigen Oxidationsstufen heraus, da mit [A]2– nicht nur die Aktivierung von H2 oder CO2 gelang, sondern erstmalig über die Einbindung der Additionsprodukte in zum Teil katalytische Folgereaktionen berichtet werden konnte.
Das Photosystem II (PSII) und die F1Fo-ATP-Synthase, zwei Membranproteinkomplexen der Energieumwandlung, wurden im Rahmen dieser Dissertation bearbeitet. Mittels zweidimensionaler (2D) Kristallisation und elektronenkristallographischen Methoden sollte die dreidimensionale (3D) Struktur aufgeklärt werden. PSII katalysiert den ersten Schritt der Lichtreaktion der Photosynthese. Es ist für das Einfangen von Lichtquanten, die Anregung von Elektronen, die Freisetzung von Sauerstoff aus Wasser verantwortlich. Über 25 Untereinheiten sind an diesem Prozess in den Thylakoidmembranen der Chloroplasten beteiligt. Ziel des ersten Projekts war die Verbesserung der 8 Å-Struktur des CP47-RC-Subkomplexes durch neue oder bessere 2D-Kristalle. Die Aufreinigung aus Spinat lieferte reproduzierbar eine gute Ausbeute an aktivem PSII. Das solubilisierte PSII enthielt genug endogenes Lipid, um es ohne den Zusatz von weiterem Lipid direkt durch Mikrodialyse zu rekonstituieren. Während der Rekonstitution verlor der PSII-Komplex CP43 und andere Untereinheiten, wahrscheinlich durch das Detergenz begünstigt, und ergab hoch geordnete Membranen aus CP47-RC. Die besten vesikulären 2D-Kristalle hatten eine tubuläre Morphologie und waren bis zu 1 µm breit und 3 µm lang. Elektronenmikroskopische Bilder unter Cryo-Bedingungen von ihnen aufgenommen zeigten nach der Bildverarbeitung Daten bis 6 Å. Durch Erhöhung der Zinkazetatkonzentration im Dialysepuffer konnten dünne 3D-Kristalle gezüchtet werden, die aus 2D-Kristallstapeln bestanden. Obwohl Elektronenbeugungsmuster Reflexe bis 4,5 Å aufwiesen, konnte auf Grund der unbekannten und veränderlichen Anzahl von Schichten keine 3D-Struktur erstellt werden. Weitere Versuche die Qualität der 2D-Kristalle von CP47-RC zu verbessern waren nicht erfolgreich. Durch die kürzliche Veröffentlichung der Röntgenkristallstruktur des dimeren PSII-Komplexes aus Synechococcus elongatus wurden weitere Untersuchungen eingestellt. Im letzten Schritt der Energieumwandlungskette bildet die F1Fo-ATP-Synthase unter Ausnutzung eines elektrochemischen Gradienten schließlich ATP, die universelle Energieeinheit der Zelle. Die Struktur und Funktion des löslichen, katalytischen F1-Teils sind seit einigen Jahren im Detail bekannt. Im Gegensatz zeichnet sich die Struktur des membranintegrierten, Ionen-translozierenden Fo-Teiles aus den Untereinheiten ab2cx erst langsam ab. Der c-Ring besteht in Hefe aus 10 und in Spinatchloroplasten aus 14 Untereinheiten. Ziel des zweiten Projekts war die Aufklärung der 3D-Struktur des sehr stabilen, undecameren c-Rings aus dem Bakterium Ilyobacter tartaricus, welches Na als Kopplungsion nutzt. Große, tubuläre 2D-Kristalle mit einer Einheitszelle von 89,7 x 91,7 Å und p1-Symmetrie bildeten sich nach der Rekonstitution von gereinigten c-Ringen mit dem Lipid Palmitoyl-Oleoyl-Phosphatidylcholin, nachdem das Detergenz durch Mikrodialyse entzogen wurde. Bilder von in Trehalose eingebetteten 2D-Kristallen wurden im Elektronenmikroskop JEOL 3000 SFF bei 4 K aufgenommen. Ein 3D-Datensatz, bestehend aus 58 Bilder bis zu einem Kippwinkel von 45°, ermöglichte die Berechnung einer 3D-Dichtekarte mit einer Auflösung von 4 Å in der Membranebene und 15 Å senkrecht dazu. Die elffach symmetrisierte Karte eines c-Rings zeigt einen taillierten Zylinder mit einer Höhe von 70 Å und einem äußeren Durchmesser von 50 Å, der aus zwei konzentrischen Ringen von transmembranen (-Helices besteht. Ein C-(-Modell der c-Untereinheit, die eine helikale "hair pin" bildet, konnte in die Dichte eingepaßt werden. Die inneren Helices sind nur 6,5 Å (Zentrum-zu-Zentrum-Abstand) von einander entfernt um eine zentrale Öffnung von 17 Å Durchmesser angeordnet. Die dichte Helixpackung wird durch ein konserviertes Motiv aus vier Glycinresten ermöglicht. Jede innere Helix ist mit einer äußeren, C-terminalen Helix über einen kurzen, wohl geordneten Loop auf der cytoplasmatischen Seite verbunden. Die äußere Helix weist in der Nähe der Ionenbindungsstelle einen Knick auf, der gleichzeitig in der Mitte der Membran liegt, wo sich die äußeren und inneren Helices am nächsten kommen. Dadurch wird es möglich, dass die Ionenbindungsstelle aus den Resten von zwei äußeren (Glu65, Ser66) und einer inneren Helix (Pro28) geformt wird. Zur Unterstützung der Ein-Kanal-Modell der Ionentranslokation konnte ein Zugang von der Ionenbindungsstelle zum Cytoplasma durch polare Reste in der c-Untereinheit vorgeschlagen werden. Des Weiteren kann spekuliert werden, dass drei Ionenbrücken zwischen den c-Untereinheiten für die hohe Temperaturstabilität des Oligomers von I. tartaricus verantwortlich sind. Die Vorstellung dieses 3D-Modells des c-Rings ist ein erster Schritt hin zum Verständnis der Kopplung der Ionentranslokation an die Rotation der F1Fo-ATP-Synthase. Wenn die Struktur der a-Untereinheit gelöst worden ist, wird hoffentlich auch der Mechanismus des kleinsten, biologischen Rotationsmotors entschlüsselt werden.
Zwei- und Viel-Teilchen-Korrelationen in zentralen Schwerionenkollisionen bei 200 GeV pro Nukleon
(1995)
Die intensiven gekühlten Schwerionenstrahlen des ESR-Speicherrings in Kombination mit dem dort installierten Überschallgastarget bieten einzigartige Möglichkeiten, Elektroneneinfangprozesse bei unterschiedlichen Projektilenergien zu untersuchen. In der vorliegenden Arbeit wurde die Emission der charakteristischen Balmerstrahlung detailliert nach (n, j)-Zuständen untersucht; die Lyman-alpha-Strahlung konnte aufgrund der großen Feinstrukturaufspaltung des 2p3/2-Niveaus darüber hinaus auch nach der Besetzung der magnetischen Unterzustände untersucht werden. Hierbei wurde gezeigt, dass der Einfangmechanismus einen starken Einfluss auf die Besetzung der magnetischen Unterzustände und damit auf die Winkelabhängigkeit der Emission der charakteristischen Photonen hat. Erstmals konnte an einem schweren Stoßsystem die Multipolmischung beim Ly-alpha1-Übergang mit großer Genauigkeit nachgewiesen werden; es ergab sich eine sehr gute Übereinstimmung mit der theoretischen Vorhersage. Aus dem Vergleich der Messung der Anisotropie bei höheren Energien mit der Vorhersage einer relativistisch exakten Theorie wurde geschlossen, dass die Messwerte nur dann erklärt werden können, wenn die Mischung von E1- und M2-Übergängen berücksichtigt wird. Durch den Vergleich der als zuverlässig anzusehenden Vorhersage für den REC-Prozeß mit den Messwerten konnte, erstmals für atomare Übergänge in Schwerionen, die Beeinflussung der messbaren Anisotropie durch Mischung der Strahlung unterschiedlicher Multipolaritäten aufgedeckt werden. Hiermit war es möglich, das Übergangsratenverhältnis Gamma M2 / Gamma E1 und daraus das Übergangsamplitudenverhältnis <M2>/<E1> zu extrahieren. Dieser kleine Beitrag(<1%) ist mit anderen Methoden nicht zu vermessen. Die beiden nichtrelativistischen Theorien, den nichtradiativen Einfang in das Projektil beschreiben, liefern bei den totalen Einfangswirkungsquerschnitten nahezu gleiche Ergebnisse in Übereinstimmung mit dem Experiment. Auch die (n, j)-differentiellen Querschnitte zeigen bei dem Vergleich mit den gemessenen Balmerspektren eine sehr gute Übereinstimmung. Erst wenn die magnetischen Unterzustände in die Untersuchung miteinbezogen werden, weichen die beiden Theorien voneinander ab. Unter Einbeziehung der Multipolmischung stimmt die Vorhersage der CDW-Theorie mit den Messwerten überein; die andere Theorie unterschätzt das Alignment des 2p3/2-Zustands und die daraus folgende Anisotropie der Lyman-alpha1-Strahlung. Es muss hervorgehoben werden, dass es durch die Anwendung der Abbremstechnik für nacktes Uran gelungen ist, diese Prozesse in einem Bereich extrem starker Störung (Q/v) zu untersuchen. Dieser Bereich ist im Allgemeinen experimentell nicht zugänglich und ist eine Herausforderung für die theoretische Beschreibung. Wie sich aus den Ausführungen zu den Zerfallskaskaden ergibt, ist die Messung des Alignments bei niedrigen Stoßenergien stark von Kaskadeneffekten beeinflusst. Das bedeutet, dass das Alignment der Lyman-alpha1-Strahlung sowohl durch den direkten Einfang als auch durch die Zerfallskaskade bestimmt ist. Dieses resultiert in einer von der jeweiligen Theorie abhängigen Vorhersage, wodurch sich eine integrale Aussage über die Güte einer bestimmten Beschreibung ableiten lässt.
Medizin gehört auch nach über 40 Jahren zu den zulassungsbeschränkten Fächern; die
Zulassung nach Leistung (Abiturnote) und Wartezeit befriedigt dabei nicht vollständig.
Die Eignung alternativer Kriterien für die Studienzulassung wurde bisher kaum
untersucht; angesichts der je nach Bundesland und Leistungsfächern heterogenen
Abituranforderungen wurden bisher auch keine Medizin-spezifischen Kriterien für die
Eignung als Zulassungskriterium untersucht, weder als Teilleistungen des Abiturs noch
als extracurriculare Aktivitäten.
Die vorliegende Studie untersucht die Bedeutung naturwissenschaftlicher Vorkenntnisse
für das Medizinstudium. Hierzu wurden das aktive Wissen in den Fächern Biologie,
Chemie, Physik und Mathematik in einer schriftlichen Klausur mit 40 offenen Fragen
an 3030 Studenten überprüft, was etwa 40% der Studienanfänger des Semesters an 14
Universitäten in Deutschland entsprach. Die Klausur wurde jeweils in den ersten vier
Wochen ihres ersten vorklinischen Semesters im Wintersemester 2004/2005
geschrieben; das Schwierigkeitsniveau der Fragen entsprach dem Lehrstoff der
Klassenstufen 10 bis 12 des Gymnasiums.
Im Durchschnitt beantworteten die Studienanfänger dabei 14,34 der 40 Fragen richtig
(36%). Aufgeteilt in die vier naturwissenschaftlichen Fächer zeigte sich, dass in den
Fächern Biologie und Mathematik jeweils über 40% der Fragen richtig beantwortet
wurden, während der Anteil der richtigen Antworten in den Fächern Chemie und Physik
mit 22% beziehungsweise 19% deutlich niedriger lag.
Die Studienanfänger in der Bundesrepublik Deutschland zeigten erhebliche
Wissenslücken auf. Im Weiteren wird in der vorliegenden Studie der Zusammenhang
zwischen den naturwissenschaftlichen Abiturnoten und -fächern der Studenten, den
naturwissenschaftlichen Kenntnissen (gemäß Klausur) und dem Studienerfolg,
gemessen an den Physikumsnoten, untersucht.
Anzustreben wäre eine bessere Vorbereitung der Studienanwärter in grundlegenden
naturwissenschaftlichen Kenntnissen, entweder in den Gymnasien oder in den ersten
vorklinischen Semestern. Dies könnte durch Medizin-spezifische Aufnahmetests vor Studienbeginn oder durch zusätzlich angebotene, freiwillige oder verpflichtende Kurse
in den naturwissenschaftlichen Fächern erfolgen, um den späteren Studienerfolg zu
gewährleisten beziehungsweise zu verbessern.
In der vorliegenden Arbeit ist es gelungen, OTS-, MPTMS-, und MPTMS/OTS gemischte SAMs aus der Lösung auf SC-1 chemisch oxidierten Siliziumwafern („SiO2“) zu präparieren. Die Adsorption der OTS oder MPTMS SAMs auf SiO2 wird von zwei konkurrierenden Reaktionen bestimmt, d.h. „Selbstaggregation” in der Ausgangslösung und “Oberflächendehydration” des SiO2 -Substrates. Die beiden Alkylsiloxan-SAMs weisen unterschiedliches Bildungsverhalten auf. Die Reifungsdauer der Ausgangslösung vor der Adsorption wirkt sich signifikant auf die Bildung der OTS SAMs aus, demgegenüber ist bei MPTMS SAMs kein Einfluß zu beobachten. Für OTS SAMs sind große Dendriten oftmals von kleinen Rundinseln umgeben, dagegen für MPTMS SAMs treten prinzipiell nur sporadisch verteilte kleine Rundinseln auf. Die Abwesenheit des Chlor-Signals in XPS-Spektren bestätigt, dass innerhalb der Adsorption die Si-Cl Bindungen der OTS-Moleküle zum größten Teil hydrolysiert werden. Doch für MPTMS SAMs ist in C 1s-Spektren ein Peak bei 286.4 eV, der der unhydrolysierten Si-OCH3 Bindung entspricht, zu beobachten. Die Hydrolysefähigkeit der Si-Cl Bindung des OTS ist erwartungsgemäß stärker als jene der Si-OCH3 Bindung des MPTMS. Diese Tendenz samt dem Unterschied in der Alkylkettenlänge wirkt sich beträchtlich auf die Bildung und die Morphologie der adsorbierten Inseln aus. Bei gleicher Konzentration (5 mM) und Reifungsdauer der Ausgangslösung bilden sich OTS SAMs viel schneller als MPTMS SAMs bei Raumtemperatur. Sie hat auch eine größere Oberflächenbedeckung wegen der seitlichen Vernetzung zur Folge. Diese Beobachtung zeigt eine prognostizierbare kinetische Schwierigkeit zur Präparation der OTS/MPTMS gemischten SAMs durch Koadsorption. Grund hierfür ist, dass die Adsorption voraussichtlich von OTS-Molekülen dominiert wird. Darüber hinaus ist Aggregation zwischen hydrolysierten OTS- und MPTMS-Molekülen nicht ausgeschlossen. Neben der Koadsorption steht in der zweistufigen Adsorption ein weiteres herkömmliches Verfahren zur Verfügung. Das Endprodukt kann nach der Reaktionsreihe der Silane mit „OTS+MPTMS“ oder „MPTMS+OTS“ gemischte SAMs bezeichnet werden. Unter Berücksichtigung der individuellen Oberflächenbedeckung und Morphologie wurde eine Rezeptur aufgestellt, in der die Adsorption jeweils höchstens 30s (für OTS) und 20 min (für MPTMS) dauert. Angesichts der vielfältigen Inselstruktur, d.h. Monoschicht, polymerisierte Bälle, und sogar Multischicht, ist eine Phasenunterscheidung nach der Dicke, z.B. mittels AFM, nicht zu erwarten. Die Existenz der lateralen unvernetzten Si-OH Gruppen der adsorbierten OTS-Inseln könnte die Präparation der homogenen OTS+MPTMS gemischten SAMs erschweren. In diesem Fall ist es fraglich, ob die hydrolysierten MPTMS-Moleküle vollständig wie geplant mit oberflächnahen OH-Gruppen von SiO2 reagieren. Mit einer umgekehrten Reaktionsreihe löst sich das Problem von selbst, da die adsorbierten MPTMS-Inseln hauptsächlich unhydrolysierte seitliche Si-OCH3 Gruppen besitzen. Die morphologische Erkennbarkeit unterstützt die Machbarkeit der Präparation der MPTMS+OTS gemischten SAMs. Die unterschiedlichen Messmodi des AFM, mit denen die Morphologie der OTS SAMs aufgenommen wurde, ergaben deutliche Unterschiede in ihrem Erscheinungsbild. Im Vergleich zum Tappingmodus sind die Grenzen der OTS-Inseln auf Kontaktmodus-Bildern nur undeutlich erkennbar. Die großen Inseln erscheinen nicht so dendritisch. Die Ursache dieser Phänomene könnte am Wassermeniskus zwischen Spitze und Probe liegen, da die Messung nicht in Flüssigkeit, sondern an Luft durchgeführt wurde. Auf LFM-Bildern sind die adsorbierten OTS-Inseln heller als unbedecktes SiO2, während die MPTMS-Inseln dunkler als SiO2 aussehen. Eine ähnliche Auswirkung der Messmodi auf die Morphologie der MPTMS SAMs wurde nicht beobachtet. Durch die Adsorption von 1-Decanthiol lässt sich die Si3N4-AFM-Spitze modifizieren. Eine solche CH3-terminierte Spitze ist hydrophob und verursacht einen gegenteiligen Helligkeitskontrast auf LFM-Bildern der adsorbierten OTS-Inseln.
In der vorliegenden Dissertation wird eine Zusammenfassung über den aktuellen Wissensstand zu Aufmerksamkeitsdefizit- /Hyperaktivitätsstörungen sowie bestehenden Therapieoptionen gegeben. Anschließend wird eine eigene Pilotstudie vorgestellt, in welcher zwei nicht-pharmakolgische Interventionen, Neurofeedback (NF, EEG-Biofeedback) und Marburger Konzentrationstraining (MKT), miteinander verglichen werden. In den letzten Jahren hat der Evidenzgrad des Neurofeedbacks kontinuierlich zugenommen. Neurofeedback ist ein verhaltenstherapeutisches Verfahren mit dem Ziel, abhängig vom angewandten Trainings-Protokoll eine entsprechende Veränderung des EEG-Frequenzspektrums oder der ereigniskorrelierten Potentiale bei Patienten zu bewirken. Mittels dieser Modifikationen soll eine Verbesserung der ADHS-Symptomatik bedingt werden. Das Marburger Konzentrationstraining stellt eine kognitiv-behaviorale Gruppentherapie dar, deren Durchführung an das Manual von Krowatschek und Mitarbeiter (2004a) angelehnt wurde. Aus dem natürlichen Patientenzulauf der kinder- und jugendpsychiatrischen Ambulanz der Johann Wolfgang Goethe-Universität wurden 47 Kinder im Alter von 6 bis 14 Jahren mit der Diagnose einer einfachen Aktivitäts- und Aufmerksamkeitsstörung (F90.0) zufällig auf die Interventionen verteilt. Unter gleichen Rahmenbedingungen erhielten 22 Probanden 10 Einzelsitzungen à 45 Minuten NF-Training mit einem Theta/Beta-Protokoll und 25 Probanden 6 Gruppensitzungen des Marburger Konzentrationstrainings à 60 Minuten. Parallel wurde ein Elterntraining mit insgesamt 5 Sitzungen angeboten. Zur Erfassung und Evaluation der ADHS-Kernsymptomatik sowie begleitender Psychopathologien wurden zu zwei Messzeitpunkten T1 (= direkt vor) und T2 (= direkt nach) dem Training sowohl neuropsychologische Testungen (objektive Ebene) durchgeführt als auch Fragebögen an Kinder, Eltern und Lehrer (subjektive Ebenen) verteilt. Die Analysen ergaben für beide Interventionen eine Reduktion der Kernsymptomatik. Wider Erwarten kam es in der NF-Gruppe lediglich zu einer tendenziellen Verminderung impulsiver und hyperaktiver Verhaltensweisen, während die MKT-Gruppe signifikante Ergebnisse für alle Verhaltensbereiche aufwies. Dementsprechend bestätigte eine Vergleichsevaluation, entgegen der ursprünglichen Annahmen eine Überlegenheit der MKT-Bedingung bezüglich der Kernsymptomatik. 125 von 189 Vergleichsanalysen zur Begleitproblematik erbrachten für beide Interventionen signifikante Verbesserungen im schulischen und sozialen Bereich sowie in Bezug auf begleitende Psychopathologien und die Gesamtproblematik. Hier wiederum erwies sich das Neurofeedback im familiären Bereich als überlegen. Auf der Suche nach Prädiktoren zeigten die Variablen „Alter“, „Erziehungsstil“ und „Teilnahme am Elterntraining“ bedeutsame Effekte. So scheinen ältere Kinder eher vom NF, die jüngeren Kinder hingegen vor allem vom MKT zu profitieren. Die Einbeziehung der Eltern ins Training scheint auf jeden Fall sinnvoll zu sein, wobei sich hier keine eindeutigen Rückschlüsse ziehen lassen. Des Weiteren ließ sich bei den Teilnehmern des Marburger Konzentrationstrainings ein prädiktiver Einfluss von Geschlecht und Intelligenzquotient erahnen. In der Zusammenschau konnte für beide Interventionen der Evidenzgrad als Therapie einer Aufmerksamkeitsdefizit- /Hyperaktivitätsstörung erhöht werden. Beide Behandlungen vermindern die Kernsymptomatik, wobei das Neurofeedback scheinbar speziell die Impulskontrolle erhöht während das Marburger Konzentrationstraining einen besonders großen Einfluss auf die Unaufmerksamkeit ausübt. Auch bezüglich der Begleitsymptomatik werden jeweils signifikante Effekte erzielt. Diesbezüglich zeigte sich hier das Neurofeedback im familiären Bereich überlegen. Zum Teil lassen sich die Veränderungen auf spezifische Trainingseffekte zurückführen. Es ergaben sich erstmalig Hinweise auf Prädiktoren. In jedem Fall ist weitere Forschungsarbeit mit größeren Stichproben, angemessenen Kontrollbedingungen und Veränderungsmaßen notwendig. So bleiben noch viele Fragen offen, wie beispielsweise die spezifischen Wirkungsweisen beider Interventionen, entsprechende Rahmenbedingungen, Prädiktoren und die Langfristigkeit der Behandlungsmethoden.