Universitätspublikationen
Refine
Year of publication
- 2019 (89) (remove)
Document Type
- Doctoral Thesis (89) (remove)
Language
- German (89) (remove)
Has Fulltext
- yes (89)
Is part of the Bibliography
- no (89)
Keywords
- Contact-sheets (2)
- Direct Cinema (2)
- Dokumentarfilme (2)
- Filmgespräche (2)
- Gisela Tuchtenhagen (2)
- Hepatitis C (2)
- Klaus Wildenhahn (2)
- Richard Leacock (2)
- Schülerlabor (2)
- Uncontrolled Cinema (2)
Institute
Die Dissertation „“Man at the Crossroads“ - “El Hombre Controlador del Universo“ - Diego Rivera zwischen New York und Mexiko 1933/34“, vorgelegt von Elena Stiehr im Fachbereich 9 am Kunstgeschichtlichen Institut der Johann Wolfgang Goethe-Universität, Frankfurt unter Betreuung von Prof. Dr. Hans Aurenhammer und Dr. Antje Krause-Wahl, leistet das erste Mal in der Forschung eine umfangreiche Untersuchung der Zweitversion des Freskos „Man at the Crossroads“. Diese realisierte Diego Rivera 1934 unter dem Titel „El Hombre Controlador del Universo“ etwa ein halbes Jahr nachdem „Man at the Crossroads“ im Rockefeller Center, New York aufgrund seines kommunistischen Bildinhalts zerstört wurde. Ziel der Untersuchung ist es, die verschiedenen Kriterien aufzuzeigen, unter denen Rivera die mexikanische Version verwirklichte, die noch heute im Palacio de Bellas Artes in Mexiko-Stadt zu sehen ist. So soll dargestellt werden, dass sich das Fresko trotz seines auf den ersten Blick hin ähnlichen Erscheinungsbildes prägnant von der Erstversion unterscheidet. Darauf weist auch bereits die Umbenennung des Werkes hin. Gleichzeitig jedoch ist „El Hombre Controlador del Universo“ ganz und gar amerikanisch. Durch die detaillierte Schilderung der Realisierung von „Man at the Crossroads“ von März bis Mai 1933 anhand von Primärquellen, wie das Tagebuch von Riveras Assistentin Lucienne Bloch und Berichte aus der amerikanischen Presse, der Analyse, ob und wie Rivera die Richtlinien des Kunstprogramms des Rockefeller Center befolgte und durch Vergleiche mit Werken anderer Künstler, die wie Rivera im Auftrag der Rockefellers arbeiteten, wird das New Yorker Erbe in „El Hombre Controlador del Universo“ aufgezeigt. Maßgeblich dafür ist überraschenderweise jedoch nicht die Wiederholung der amerikanischen Motive aus der Erstversion, wie der US-amerikanischen Kapitalistenklasse, der desolaten Situation der USamerikanischen Arbeiter und Bauern im Zuge der Weltwirtschaftskrise und der technischen und naturwissenschaftlichen Errungenschaften, die erstmals in der Forschung identifiziert und kontextualisiert werden, sondern vor allem die Integration neuer Motive, die fest mit den USA verbunden sind. So erlebte Rivera in New York einen intensiven Austausch mit den USamerikanischen Trotzkisten Max Shachtman und James Cannon, die der Künstler nun in der Zweitversion zusammen mit Trotzki selbst und dem Aufruf zur IV. Internationalen für die Bekämpfung des Kapitalismus, Imperialismus und Faschismus darstellt. In diesem Kontext steht im Bild weiterhin das Portrait des deutschen Widerstandskämpfers Willi Münzenberg, der erstmals in der Literatur identifiziert wird. Rivera zeigt in der Zweitversion nun aber auch in konkreter Gestalt die zu bekämpfende Gegenposition, die in Joseph Goebbels, Adolf Hitler, Josef Stalin und dem japanischen Kaiser Hirohito zu finden ist. Auch diese Portraits wurden in der Forschung bislang übersehen.
Entgegen der in der Literatur vertretenen These, dass die Zweitversion an Kraft verloren hätte, da sie sich nicht mehr im Herzen des Kapitalismus, also dem Rockefeller Center, befinde, macht die Untersuchung deutlich, dass Rivera mit dem Fresko in Mexiko dringlicher als je zuvor für eine marxistisch-trotzkistische Internationale wirbt. Diese sollte sich von Mexiko aus über den gesamten amerikanischen Kontinent erstrecken und der kapitalistisch-imperialistischen Allianz Einhalt gebieten. Die Arbeit leistet darüber hinaus einen wichtigen Beitrag für den Diskurs über die Rezeption der prähispanischen Kunst im Werk von Diego Rivera. So wird erstmals aufgezeigt, dass Rivera auch in „El Hombre Controlador del Universo“ Motive aus der altmexikanischen Kultur ableitet. Im Gegensatz zu anderen Fresken wurde das Wandbild noch nicht unter dieser Fragestellung untersucht. Grund dafür könnte sein, dass Rivera die ursprünglich mexikanischen Motive, wie die der Sonne und des Mondes, der Nutzpflanzen, der Tiere und des Totenkultes, in einen wissenschaftlichen Kontext einbettet und sie daher nicht auf dem ersten Blick als originär mexikanisch wahrgenommen werden. Der Epilog der Arbeit führt einen Vergleich mit dem für die Pariser Weltausstellung 1952 realisierten Freskos „Friedenstraum und Kriegsalbtraum. Realistische Phantasie“ fort, den 2008 erstmals in der Forschung Ana Isabel Pérez Gavilan Ávila angestoßen hat. Aufgrund der Darstellung von Stalin und Mao als Initiator einer Friedensbewegung und der USA als Atommacht und Folterer von Koreanern und Chinesen hatte dieses Fresko ähnlich wie „Man at the Crossroads“ eine scharfe Zensur erhalten. Rivera behauptete daraufhin sein Bild verteidigend, dass das Fresko eine inhaltliche und formale Fortsetzung von „El Hombre Controlador del Universo“ sei. Ein bislang nicht publizierter Brief, der sich im Archiv des CENIDIAP in Mexiko befindet, legt jedoch dar, dass Rivera mit Hilfe des Wandbildes lediglich versuchte, nach über 20 Jahren wieder von der Kommunistischen Partei aufgenommen zu werden.
Die Physiologie des Schmerzes umfasst komplexe immunologische, sensorische und inflammatorische Prozesse im Rückenmark, im Gehirn und in der Peripherie. Wiederholte nozizeptive Stimulation induziert pathophysiologische Veränderungen bei der Schmerzweiterleitung, aus denen eine periphere oder zentrale Sensibilisierung resultiert. Diese kann bei dafür anfälligen Patienten zu der Ausbildung von chronischen Schmerzzuständen führen. Obwohl das Wissen über die genauen molekularen Vorgänge der Schmerz-Chronifizierung noch immer unvollständig ist, sind die Identifizierung von Risikofaktoren vernünftige Schritte, um die individuelle Anfälligkeit für die Entwicklung chronischer Schmerzen zu bestimmen. Das Hauptziel dieser Doktorarbeit bestand daher in der Identifikation humaner genetischer Biomarker für chronische Schmerzzustände.
Die Arbeit untersucht die Ad-hoc-Publizität unter der Geltung der MAR. In der Arbeit werden zuerst das Informationsmodell auf dem Kapitalmarkt und die Erforderlichkeit und Notwendigkeit der Regulierung des Kapitalmarkts durch gesetzliche Informationspflichten analysiert. Mithilfe eines Rückblicks auf die Entwicklung der Ad-hoc-Publizität in den Rechtsnormen wird ihr Sinn und Zweck untersucht. Die rechtlichen Anforderungen an Ad-hoc-Publizität unter der Geltung der MAR werden in einem weiteren Schritt untersucht. Der Schwerpunkt liegt dabei auf den Tatbestandsmerkmalen der Ad-hoc-Publizitätspflicht und dem Aufschub der Veröffentlichung. Darüber hinaus werden die Rechtsfolgen im Falle von Pflichtverstößen, insbesondere Anspruchsgrundlagen nach §§ 97, 98 WpHG analysiert. Im Hinblick auf die Ad-hoc-Publizität nach dem chinesischen Recht werden ihre historische Entwicklung in Rechtsnormen und ihr Sinn und Zweck untersucht. Eine dogmatische Analyse der Ad-hoc-Publizitätspflicht und der Rechtsfolgen beim Pflichtverstoß nach dem geltenden chinesischen Recht wird dann durchgeführt. Schließlich wird die Ad-hoc-Publizität nach der MAR und dem chinesischen Recht verglichen.
Im rechtsvergleichenden Teil der Untersuchung identifiziert der Verfasser bestimmte Besonderheiten und Defizite im chinesischen Recht. Den Regelungsansätzen der beiden Rechtssysteme liegen unterschiedliche rechtpolitische Zielsetzungen zugrunde. In der EU und in Deutschland steht der Konnex zum Insiderhandel im Vordergrund, denn diesem wird durch die Ad-Hoc Meldung der Boden entzogen. In China handelt es sich bei der Ad-hoc-Publizität konzeptionell eher um einen Annex zur Regelpublizität. Damit geht Hand in Hand, dass die Verfolgung zivilrechtlicher Ansprüche aufgrund falscher Ad-hoc-Meldungen in China der behördlichen Genehmigung bedarf. Der Verfasser macht auf dieser Grundlage Vorschläge zur (behutsamen) Rechtsfortbildung in China nach europäischem Vorbild.
Stickstoff (NO), Kohlenmonoxid (CO) und Schwefelwasserstoff (H2S) gehören zur Gruppe der Gasotransmitter. Dabei handelt es sich um kleine gasförmige Signalmoleküle, welche innerhalb des Körpers gebildet werden und dort wichtige physiologische Funktionen bei der Regulation der Apoptose, der Proliferation, der Entzündungsreaktion und der Genexpression übernehmen. Aufgrund ihrer Membranpermeabilität ist die Wirkung der Gasotransmitter nicht an die Interaktion mit spezifischen membranständigen Rezeptoren gebundenen. Je nach Organ, Gewebe und Konzentration können diese Mediatoren unterschiedliche Prozesse beeinflussen und teils sogar gegenteilige Wirkungen hervorrufen.H2S beispielsweise kann im Verlauf der Leukozytenadhäsion im Epithelium anti-inflammatorisch, bei Brandwunden oder rheumatischen Erkrankungen jedoch pro-inflammatorisch wirken. Im Kreislaufsystem hingegen bewirkt H2S durch die Aktivierung von ATP-abhängigen K+-Kanälen und die damit zusammenhängende Vasorelaxion der glatten Muskelzellen einen eindeutig protektiven Effekt.
H2S kann je nach Substrat und Zelltyp durch eines von 3 Enzymen gebildet werden. Die Cystathionin-γ-Lyase (CSE) und die Cystathionin-β-Synthase (CBS) nutzen L-Cystein als Substrat für die Synthese von H2S. Das dritte H2S-bildende Enzym, die 3-Mercaptopyruvate Sulfurtransferase (3-MST) verwendet α-Ketoglutarat als Substrat, welches zuvor von der Cystein-Aminotransferse (CAT) aus L-Cystein synthetisiert wurde. Während die beiden Enzyme CSE und CBS im Zytosol der Zelle zu finden sind, ist die 3-MST hauptsächlich in den Mitochondrien der Zelle zu finden. Im Gegensatz zur CBS, welche eher ein konstitutiv exprimiertes Protein ist, wird die Expression der CSE auf der Transkriptionsebene durch u.a. Entzündungsmediatoren wie TNF-α oder Wachstumsfaktoren wie PDGF-BB induziert.
Ein Ziel der Arbeit war es, die Wirkung von H2S bei der Wundheilung, bei entzündlichen glomerulären Erkrankungen der Niere und beim Schlaganfall zu untersuchen. Für diesephänotypische Analysen stand ein Knockoutmodell für die CSE zur Verfügung.
Zudem wurden in dieser Arbeit Untersuchungen mit einem Knockoutmodell für das zytoskeletäre Protein durchgeführt. Bei Clp36 (PDLIM1) handelt es sich um ein PDLIM-Protein (PDZ and LIM domain protein),welches durch die Gasotransmitter NO und H2S auf transkriptioneller und translationaler Ebene reguliert wird ist und aufgrund seiner Assoziation mit dem Zytoskelett dynamische Vorgänge der Zelle moduliert. Es ist bereits bekannt, dass Clp36 ein negativer Regulator des Glykoprotein VI (GPVI), welches eine wichtige Rolle bei der Aktivierung von Thrombozyten spielt, ist.
Beide Knockoutmodelle wurden in murinen Mesangiumzellen der Niere und in Krankheitsmodellen der Haut (kutane Wundheilung)und des Gehirns (Schlaganfall mit dem MCAO-Modell) analysiert.
Neben nicht signifikanten Effekten im MCAO-Modell, konnten sowohl Effekte des CSE-, als auch des CLP36-KOs auf die Migration und Proliferation und im Falle der CSE auch auf die Adhäsion der murinen Mesangiumzellen beobachtet werden. Die Depletion von Clp36 führte zu einer Verringerung der Migrations- und einer Erhöhung der Proliferationsrate, wohingegen die Depletion der CSE zu einer Erhöhung der Migrations-, Proliferations- und Adhäsionsrate führte. Die vielversprechendsten Ergebnisse konnten im Tiermodell der kutanen Wundheilung generiert werden. Untersucht wurde die Expression der H2S-produzierenden Enzyme CSE, CBS und 3-MST. Alle drei Enzyme zeigten im Tiermodell keine transkriptionelle Regulation und blieben auch während der akuten Entzündungsphase und der proliferativen Phase der Wundheilung unverändert. Es konnte jedoch gezeigt werden, dass die Expression der CSE in der späten Phase der Wundheilung signifikant anstieg, wenn die Proliferation innerhalb des Granulationsgewebes und der Neoepidermis geringer wurde. Die Vermutung, dass H2S in dieser Phase eine wichtige Rolle spielt, konnte durch die Analyse der CSE-KO Mäuse bekräftigt werden, da dort der Verlust der CSE offenbar durch die CBS kompensiert wurde.
In immunhistochemischen Untersuchungen konnten insbesondere follikuläre Keratinozyten der Neo-Epidemis als Quelle der CSE-Expression identifiziert werden. Durch in-vitro Studien auf mRNA und Proteinebene in HaCaT Zellen wurde gezeigt, dass H2S die Keratinozyten-Differenzierung beeinflusst. Der langsam freisetzendeH2S-Donor GYY4137 konnte in humanen Keratinozyten zu einer signifikanten Erhöhung der Ca2+- induzierten Expression der frühen Keratinozyten-Differenzierungsmarker Cytokeratin 10 (CK10) und Involucrin (IVN) beitragen.
Im Laufe dieser Arbeit konnte der molekulare Mechanismus hinter diesen Beobachtungen noch nicht geklärt werden.
Durch weitere Versuche meiner Arbeitsgruppe konnte jedoch gezeigt werden, dass die GYY4137-abhängige Induktion der CK10-Expression durch eine verstärkte Bindung der RNA-Polymerase II an den CK10 Promotor zustande kommt.
Sulforaphane is a natural substance found in cruciferous vegetables such as broccoli or cabbage. There are promising results for a number of tumor entities regarding the potential anti-carcinogenic effects of sulforaphane. The experiments designed for this study were performed on prostate carcinoma cells. The aim was to investigate the influence of sulforaphane on the growth behaviour of prostate cancer cells.
Designed as an in-vitro-model, prostate carcinoma cell lines DU145 and PC3 were used in the study. The experiments can be roughly divided into two categories:
• Regulation of cell growth: After the growth inhibitory effect of sulforaphane has been confirmed (MTT test), the proliferation rate (BrdU assay) and apoptosis rate (apoptosis assay) of the cells were measured under the influence of sulforaphane. Studies on clonogenic growth completed this series of experiments.
• Regulation of the cell cycle: After determining the impact of sulforaphane on the phases of the cell cycle (cell cycle assay), the cell cycle-relevant proteins of the cyclin-CDK-axis, the CDK inhibitors p19 and p27 as well as the acetylated histones aH3 and aH4 were analysed (Western Blot).
An additional MTT test was performed to determine a possible induction of resistance by long-term sulforaphane exposure. In addition, the expression profile of CD44 subtypes v4, v5 and v7 under the influence of sulforaphane has been investigated by FACS analysis.
The growth and proliferation rate as well as the clonogenic growth of the prostate carcinoma cells were shown to be inhibited under the influence of sulforaphane in a concentration-dependent manner. Induction of apoptosis has not occurred. The treatment with sulforaphane resulted in a concentration-dependent G2/M arrest of the cell cycle. The level of expression of cyclins A and B and of CDKs 1 and 2 has increased due to sulforaphane exposure. The level of expression of pCDKs has decreased except for a slight increase in pCDK 2 in the DU145 cell line. The CDK inhibitors p19 and p27 were elevated, except for a reduction of p27 in the PC3 cell line. The level of expression of acetylated histones aH3 and aH4 has increased due to sulforaphane treatment. Indications for induction of resistance by long-term use of sulforaphane were not found. Treatment with sulforaphane resulted in an increased expression level of the CD44 subtypes v4, v5 and v7 in a concentration- and time-dependent manner.
The test results fit into the existing findings. The exact processes and relationships of the modes of action are not yet sufficiently understood. Nevertheless, it can be stated that sulforaphane can trigger anticarcinogenic mechanisms at the molecular level also in prostate cancer. Therefore, sulforaphane could eventually be used in clinical practice, whether prophylactically or therapeutically. Further studies, also in clinical settings on humans, are therefore necessary.
Infektionen mit HBV, HCV und HIV verlaufen potentiell chronisch und besonders bei HIV auch tödlich. Komplexe, zum Teil lebenslange Therapien stellen eine große Belastung für die betroffenen Patient*innen und das Gesundheitssystem dar. Die Sicherheit von Blutprodukten hat sich durch Testung auf HBV, HCV und HIV in den vergangenen Jahrzehnten weltweit stark verbessert. Ein kontinuierliches Risikoassessment ist notwendig um diesen Trend aufrecht zu erhalten und auf Änderungen von Einflussfaktoren rechtzeitig reagieren zu können. Die Zusammenschau der Spendenscreeningdaten des DRK Baden-Württemberg Hessen, Nord-Ost, West und des Bayrischen Roten Kreuzes aus den Jahren 2008 bis 2015 ergab, dass in allen Blutbanken unterschiedliche Testsystem verwendet wurden. In zurückliegenden Analysen kamen zudem verschiedene mathematische Modelle zur Anwendung um die TTVI-Risiken in Deutschland abschätzen zu können. Ein direkter Vergleich der Blutspendedienste untereinander sowie eine Analyse der Risikoentwicklung über die Zeit sind somit erschwert. Eine Vereinheitlichung der verwendeten Testsysteme sowie der angewandten Modelle ist anzustreben. Die Anwendungen der Risikomodelle von Busch et al., Hourfar et al. und Weusten et al. ergaben für alle untersuchten Blutbanken Ergebnisse, die geringfügig höher als die beobachteten Risikowerte ausfielen. Das von Weusten et al. entwickelte Modell erwies sich als am besten geeignet zur Risikostratifizierung, da unterschiedliche Eigenschaften der Viren am genauesten berücksichtigt und TTVI-Risiken im Vergleich mit den anderen Modellen sowie zu den beobachteten Fallzahlen konservativ eingeschätzt werden. Nach diesem Modell lagen die Risiken für eine Transmission pro eine Million transfundierter Einheiten in den Jahren 2008 bis 2015 für HBV bei 1, für HCV bei 0,3 und für HIV bei 0,1. Der Vergleich der Zeiträume 1997 bis 2005 und 2008 bis 2015 mittels des Modells von Hourfar et al. ergab aktuell höhere Risiken für TTVIs mit HCV und HIV, wohingegen die Risiken von TTVIs mit HBV gesunken sind. Diese Entwicklungen sind auf erhöhte HCV- und HIV-NAT Only Inzidenzen sowie auf den wachsenden Anteil HBV-geimpfter Spender*innen zurückzuführen. Modellierungen anhand der Spenderscreeningdaten des DRK Baden-Württemberg Hessen mittels des Modells von Weusten et al. zeigten, dass der Faktor Plasmavolumen nicht zur Risikooptimierung geeignet ist. Ein erhöhter Forschungsbedarf im Bereich minimal infektiöse Dosen konnte betont werden, da sich der Einfluss der N50 auf die Risiken als sehr hoch herausstellte und eine Übersicht aktueller Arbeiten teils stark differierende Werte ergab. Die Verkleinerung der Poolgrößen erwies sich als potente Option zur Risikoreduktion, bedarf jedoch weiter Kosten-Nutzen-Analysen bei aktuell bereits sehr geringen TTVI-Risiken. Eine Vergrößerung der Spendeintervalle konnte als ebenso wirkungsvolle Möglichkeit zur Verringerung der Transmissionsrisiken ermittelt und eingeordnet werden. In diesem Zusammenhang wurde überdies gezeigt, dass TTVI-Risiken von Aphereseprodukten um ein Vielfaches höher liegen als die Risiken von Vollblutspenden.
Der technische Fortschritt ermöglicht die Auswertung großer Datenmengen mittels Algorithmen zur Feststellung bislang unbekannter Korrelationen. Schlagwortartig werden solche Analysen unter dem Begriff Big Data zusammengefasst. Häufig sind personenbezogene Daten Gegenstand von Big-Data-Anwendungen, sei es als Grundlage oder Ergebnis einer Auswertung. In diesen Fällen ist das Datenschutzrecht zu beachten.
Der Zweckbindungsgrundsatz fordert die Angabe eines Verarbeitungszwecks bereits bei Erhebung der Daten und eine Bindung des weiteren Datenumgangs an diesen Zweck. Damit besteht ein Spannungsverhältnis zu Big-Data-Anwendungen, die zu Verarbeitungsbeginn den Zweck allenfalls unspezifisch anzugeben vermögen. Auf Grundlage des alten Bundesdatenschutzgesetzes mit einzelnen Ausblicken auf die Datenschutzgrundverordnung untersucht die Arbeit die datenschutzrechtlichen Anforderungen an die Zweckfestlegung und welche Bindungen aus ihr folgen. Zudem nimmt der Autor mögliche Lösungen des Konflikts zwischen Big-Data-Anwendungen und dem Zweckbindungsgrundsatz in den Blick.
Schilddrüsenknoten stellen mit einer Prävalenz von ca. vierundzwanzig Prozent eine häufige Erkrankung in Deutschland dar. Zahlreiche Studien belegen den erfolgreichen Einsatz der Radiofrequenzablation (RFA) an heißen und kalten Knoten. Sie tritt damit als berechtigte Alternativmethode zum bisherigen Standard Operation und Radiojodtherapie auf. Ziel dieser vorliegenden retrospektiven Studie war der direkte Vergleich einer mit bipolarer RFA behandelten Gruppe heißer und kalter Knoten bezüglich Knotenvolumenreduktion nach drei Monaten, Schmerzempfinden sowie Ultraschall- und laborchemischen Veränderungen.
Material und Methoden:
Die vorliegende retrospektive Untersuchung basiert auf Daten von 40 heißen und 40 kalten benignen Schilddrüsenknoten, die im Mittel 17 ml maßen und mittels bipolarer Radiofrequenzablation behandelt wurden. Alle Patienten unterliefen einer Befunderhebung vor und nach der Therapie sowie nach drei Monaten, bestehend aus vollständigem Schilddrüsenhormonstatus und sonographischen Kriterien. Letztere beinhalteten Messungen des Volumens, der Echogenität, des Blutflusses und der Elastizität. Die übertragene Gesamtenergiemenge [kJ] sowie die Behandlungszeit [s] wurden nach der jeweiligen Intervention dokumentiert. Schmerzen, die während der Behandlung auftraten wurden auf einer 10-Punkte-Rating-Skala gemessen.
Ergebnisse:
Die einmalige bipolare Radiofrequenzablation resultierte in keiner signifikant unterschiedlichen Volumenreduktion zwischen heißen und kalten Knoten nach 3 Monaten (51,57 vs. 54,91 %). Die Hypothese einer geringeren Effektivität der RFA in heißen Knoten aufgrund des „heat sink effect“ ließ sich somit nicht bestätigen. In den einzelnen Gruppen konnte dagegen eine signifikante Volumenreduktion erzielt werden (p < 0, 005).
Es ergaben sich Hinweise auf eine korrelative Reduktion des Knoten- und Schilddrüsenvolumens über 60-Jährigen Probanden, analog zu der im Alter abnehmenden fettfreien Körpermasse.
Der Energie- und Zeitaufwand stieg stets linear mit dem Knotenvolumen an (r > 0,65). Das Schmerzempfinden wurde dagegen nicht von der Knotengröße beeinflusst (p > 0,05). Es bestätigte sich ein stärkeres Schmerzempfinden bei der Verwendung ungekühlter Sonden (Schmerzmedian 3 versus 2).
Weiterhin kam es zu einer signifikanten Abnahme des Blutflusses und der Elastizität durch die RFA in beiden Knotenarten (p < 0,005).
Laborchemisch blieben alle Patienten auch nach Radiofrequenzablation euthyreot. Es konnte eine signifikante Zunahme des TSH-Wertes zwischen Ausgangszeitpunkt T0 und Nachuntersuchungstermin (T2) nachgewiesen werden (p < 0,05) und somit eine Verbesserung des hormonellen Funktionsstatus. Nach Radiofrequenzablation kam es in beiden Gruppen zu einem signifikanten Anstieg des Thyreoglobulin-Spiegels (p < 0,005) als Zeichen einer erfolgreichen Intervention. Die TRAK-, TG- und TPO-Antikörper blieben ohne signifikante Änderung (p > 0,05).
Schlussfolgerung:
Die Radiofrequenzablation stellt eine sichere und effektive Therapiealternative von benignen Schilddrüsenknoten dar und liefert gleichwertige Volumenreduktionen bei heißen und kalten Knoten. Es bedarf weiterer direkter Vergleichsstudien hinsichtlich der Wirksamkeit auf die Knotenart sowie Langzeitbeobachtungen, um abschließende Aussagen darüber treffen zu können.
Eukaryotische Zellen sind durch, aus Lipiddoppelschichten bestehenden, Membranen in Kompartimente mit unterschiedlichen Funktionen eingeteilt. Um einen Transport von Molekülen über die Membranen hinweg zu gewährleisten, werden Kanälen und Transporter benötigt. Eine Familie von Transportern sind die ATP-binding cassette (ABC) Transporter, die in allen Lebewesen, von Bakterien bis zum Menschen, vorkommen. Ein Mitglied dieser Familie ist der transporter associated with antigen processing-like (TAPL oder ABCB9). TAPL ist ein lysosomaler Polypeptidtransporter der per ATP-Hydrolyse Peptide von 6 – 59 Aminosäuren Länge vom Zytosol in das Lumen der Lysosomen transportiert. Hierbei kann TAPL, das ein Homodimer ist, in zwei funktionale Domänen geteilt werden. Der Teil des Komplexes, der für den Transport zuständig ist, wird als coreTAPL bezeichnet. Dieser beinhaltet die zytosolischen nucleotide binding domains (NBDs), die ATP binden und hydrolysieren können, und die Transmembrandomänen (TMDs), die Peptide binden und sie durch konformationelle Änderungen auf der anderen Membranseite freilassen. Die zweite Domäne ist eine N-terminale TMD, die als TMD0 bezeichnet wird. Dieser, aus vier Transmembranhelices (TMHs) bestehende Teil des Proteins, ist für die Lokalisation von TAPL in der lysosomalen Membran verantwortlich, sowie für die Interaktion mit den dort lokalisierten Membranproteinen LAMP-1 und LAMP-2. CoreTAPL ohne die TMD0s erreicht nicht die Lysosomen, sondern liegt in der Plasmamembran (PM) der Zelle vor. Die TMD0 hingegen benötigt coreTAPL nicht um korrekt in der lysosomalen Membran lokalisiert zu sein.
Die korrekte Lokalisation in der Zelle ist ein kritischer Punkt für ein Protein, um seine Funktion ausüben zu können. Die Transportprozesse vom Ort der Synthese des Proteins, dem Endoplasmatischem Reticulum (ER), zum Organell wo es seine Funktion ausüben soll, umfassen dutzende Proteine und Proteinkomplexe und ein komplexes Zusammenspiel zwischen Proteinen und den einzigartigen Lipidzusammensetzungen der Membranen verschiedener Organellen. Auf das Einfachste heruntergebrochen benötigt ein Transmembranprotein eine kurze Aminosäuresequenz auf der zytosolischen Seite, die Signalsequenz. Diese Sequenz wird von sogenannten Adapterproteinen erkannt, die wiederum andere Bestandteile der zellulären Maschinerie rekrutieren, die letztlich Vesikelbildung, Transport und Fusion mit der Zielorganelle vermitteln. Allerdings weisen nicht alle lysosomalen Transmembranproteine eine solche Signalsequenz auf, sondern besitzen unkonventionelle Zieldeterminanten, wie posttranslationale Modifikationen, oder sie interagieren mit anderen Proteinen, die wiederum die Interaktion mit den Adapterproteinen vermitteln.
Die vorliegende Dissertation gliedert sich in 2 Abschnitte: Im 1. Abschnitt wurden die Auswirkungen des Naturstoffs Phytol auf den Krankheitsverlauf des murinen EAE-Modells charakterisiert, während im 2. Abschnitt die immunmodulierenden Eigenschaften der neuartigen Leitsubstanzen Silvestrol sowie Steroid Substanz 1o untersucht wurden.
Vorarbeiten zeigten einen positiven Einfluss von Phytol auf den Krankheitsverlauf im murinen EAE-Modell für Multiple Sklerose, eine verringerte Proliferationsfähigkeit von Splenozyten sowie eine Regulation der NOX2 mRNA-Expression (Blum et al., 2018b).
In der vorliegenden Arbeit konnte nachgewiesen werden, dass die Gabe von Phytol den Prozess der Demyelinisierung im lumbalen Rückenmark deutlich reduzierte und die Anzahl der Immunzellen in den inguinalen Lymphknoten sowie im lumbalen Rückenmark signifikant verringerte. Weiterhin konnte eine Regulation der spezifischen T-Zell Transkriptionsfaktoren T Bet sowie Foxp3 nachgewiesen werden. Es zeigte sich, dass Phytansäure, nicht jedoch Pristansäure, die beiden Metaboliten von Phytol, die Proliferationsfähigkeit der T-Zellen signifikant verringerte. Beide Metaboliten zeigten zusätzlich unterschiedlichen Einfluss auf die T-Zell Subtypen. Hultqvist et al. konnten eine verstärkte Bildung von reaktiven Sauerstoffspezies (ROS) durch Phytol nachweisen (Hultqvist et al., 2006). Vorarbeiten zeigten eine Steigerung der mRNA-Expression des ROS-produzierenden Enzymkomplex NOX2 im Verlauf des EAE-Modells sowie eine Regulation der NOX2-Expression im lumbalen Rückenmark und in den inguinalen Lymphknoten durch Phytol (Blum et al., 2018b). Deshalb wurde die Rolle von NOX2 an den Phytol-vermittelten Effekten weiter charakterisiert. Dabei zeigte sich, dass die gesteigerte NOX2-Expression im lumbalen Rückenmark auf die eingewanderten Immunzellen zurückzuführen war. Die von NOX2 im zentralen Nervensystem (ZNS) gebildeten ROS, welche zur Schädigung der Myelinschicht beitragen können, wurden durch die Gabe von Phytol im lumbalen Rückenmark verringert. Untersuchungen in NOX2KO-Mäusen zeigten, dass die beobachteten ex vivo Effekte von Phytol sowie dessen Metaboliten nur teilweise NOX2-abhängig waren. Im murinen EAE-Modell mit NOX2KO-Mäusen zeigte Phytol weiterhin einen positiven Einfluss auf die klinischen Symptome. Auffällig war dabei, dass NOX2KO-Tiere grundsätzlich weniger klinische Scores zeigten als Wildtyp Tiere. In NOX2-Chimären hatte Phytol keinen signifikanten Einfluss auf den Krankheitsverlauf. Grund dafür könnte eine Beschädigung der Blut-Hirn-Schranke bei der Generierung der Chimären und eine damit verbundene verstärkte Infiltration von Immunzellen in das ZNS gewesen sein. Weiterhin konnte Phytol möglicherweise über die geschädigte Blut-Hirn-Schranke verstärkt in das ZNS eindringen und dort über eine gesteigerte ROS-Produktion zu schädigenden Effekten führen.
Die in vivo Daten weisen auf einen überwiegend NOX2-unabhängigen Wirkmechanismus von Phytol hin. Dennoch scheint NOX2 bei einigen Effekten zumindest beteiligt zu sein. Zusammenfassend zeigte die Gabe von Phytol einen überwiegend positiven Einfluss auf den Krankheitsverlauf im murinen EAE-Modell, dennoch ist die Phytol-vermittelte Induktion von NOX2 und die Bildung von ROS kritisch zu sehen, da diese sowohl positive als auch negative Effekte vermitteln und stark von der Quantität sowie der Lokalisation der Bildung abhängig sind.
Im 2. Teilprojekt wurden die immunmodulierenden Auswirkungen der neuartigen Leitsubstanzen Silvestrol sowie Steroid Substanz 1o charakterisiert. Der anti-viral wirksame Naturstoff Silvestrol zeigte dabei diverse Auswirkungen auf die Differenzierung sowie Polarisierung von humanen Makrophagen. Während der Differenzierung inhibierte Silvestrol das anti-inflammatorische bzw. resolutionsfördernde Potential der Makrophagen durch eine Reduktion der resolutionsfördernden Oberflächenmarker CD206 und TREM2. Weiterhin wurde die Sezernierung der anti-inflammatorischen Zyto- bzw. Chemokine IL-10 und CCL18 verringert. Der pro-inflammatorische Phänotyp von M1-Makrophagen wurde weiterhin durch die vermehrte Bildung von TNF-α unterstützt, während bei M2-Makrophagen der anti-inflammatorische bzw. resolutionsfördernde Phänotyp verstärkt wurde. In Dendritischen Zellen schien Silvestrol sowohl die Differenzierung als auch die Aktivierung zu inhibieren, da zahlreiche Oberflächenmarker und sezernierte Zytokine signifikant verringert wurden. Die Stoffwechselwege der oxidativen Phosphorylierung und der Glykolyse wurden sowohl in Makrophagen als auch in Dendritischen Zellen signifikant reduziert. Demnach ist unklar, ob in der Summe die pro- oder anti-inflammatorischen Aspekte von Silvestrol überwiegen und ob der Einfluss auf den Stoffwechsel die Immunantwort beeinträchtigt.
Der anti-parasitäre Wirkstoff Steroid Substanz 1o zeigte keinen negativen Einfluss auf die Viabilität in primären humanen Immunzellen bis zu einer Konzentration von 50 µM und verstärkte das pro-inflammatorische Profil von M1-Makrophagen. Weiterhin wurde der anti-inflammatorische bzw. resolutionsfördernde Phänotyp von M2-Makrophagen unterdrückt und stattdessen die pro-inflammatorischen Aspekte verstärkt. Diese Beobachtungen der veränderten Oberflächenmarker sowie der sezernierten Zytokine wurden weiterhin durch die Veränderung des zellulären Stoffwechsels gestützt. Dabei steigerte Steroid Substanz 1o die Glykolyse in M2-Makrophagen, welche eigentlich für M1-Makrophagen charakteristisch ist. Dadurch kann die Verschiebung der M2-Makrophagen zu einem M1-Phänotyp erklärt werden. Weiterhin beeinträchtigte Steroid Substanz 1o die Differenzierung und Aktivierung von Dendritischen Zellen. Zusammenfassend verstärkte Steroid Substanz 1o überwiegend die pro-inflammatorischen Aspekte der Immunreaktion durch eine Aktivierung der M1-Makrophagen. Bei der möglichen Anwendung als Therapeutikum für Malaria sowie Schistosomiasis kann somit das Immunsystem bei der initialen Abwehr der Parasiten unterstützt werden.
Das Neuroblastom ist der häufigste extrakranielle solide Tumor des Kindesalters. Bei Diagnosestellung befinden sich die meisten Patienten bereits in fortgeschrittenen Tumorstadien; trotz intensiver multimodaler Therapie überleben nur 30-40% der Hochrisikopatienten die Erkrankung. Zum Therapieversagen führt in den meisten Fällen eine Resistenzentwicklung des Tumors gegenüber den Chemotherapeutika. Die Entdeckung neuer effektiver Therapieansätze und Überwindung der Chemoresistenz durch Resensibilisierung der Tumorzellen ist daher ein dringendes Forschungsanliegen.
Zur Charakterisierung der Zelllinien im ersten Teil dieser Arbeit wurde die Zellmorphologie, die Gen- und Proteinexpression verschiedener Differenzierungs- bzw. Krebsstammzell-Marker und das Anoikis-Verhalten der Neuroblastomzellen UKF-NB-2, UKF-NB-3 und UKF-NB-6 sowie ihrer Cisplatin- und Carboplatin-resistenten Sublinien untersucht. Der zytomorphologischen Phänotyp der untersuchten Zellen ließ keine eindeutigen Schlüsse auf eine neuronale, indifferente oder nicht-neuronale Differenzierung der Zellen zu. Gemessen an der Expression der neuronalen Marker NCAM, TH und der Neurofilamente L, M und H zeigte jedoch die Mehrzahl der untersuchten Cisplatin- und Carboplatin-resistenten Sublinien einen signifikanten Verlust der neuronalen Differenzierung im Vergleich zu ihren parentalen Zellen. Dieser Effekt war auch durch eine temporäre Platinkarenz nicht vollständig reversibel.
Der EGF-Rezeptor, dessen Überexpression als negativer prognostischer Marker für den Therapieerfolg gilt, wurde von allen untersuchten Zelllinien exprimiert, es ließ sich jedoch keine signifikant verstärkte Expression in den resistenten Sublinien nachweisen.
Eine Krebsstammzelle ließ sich in den untersuchten Zelllinien bei schwacher bis fehlender Stammzellmarkerexpression von CD133 und c-Kit nicht eindeutig identifizieren.
Die Resistenz gegenüber Anoikis ist eine Grundvoraussetzung für die Metastasierung von Tumorzellen. Bei den in dieser Arbeit untersuchten Neuroblastomzelllinien zeigten 3 von 8 Zelllinien, UKF-NB-2, UKF-NB-2rCDDP500 und UKF-NB-6, eine Anoikis-Resistenz. UKF-NB-3 sowie ihre beiden Sublinien waren Anoikis-sensibel, sie zeigten alle einen signifikanten Viabilitätsverlust durch Kultivierung auf Poly-HEMA-Beschichtung und daraus resultierendem Adhärenzverlust. Bei UKF-NB-6 nahm durch den Erwerb der Platinresistenz die Toleranz gegenüber Anoikis ab, wie man an dem signifikanten Viabilitätsverlust der Sublinien UKF-NB-6rCDDP1000 und UKF-NB6rCarbo1000 unter nicht-adhärenten Bedingungen sieht. Die Ausbildung der Cisplatin- und insbesondere der Carboplatinresistenz geht hier mit einer signifikant verstärkten Sensitivität der Zellen gegenüber Anoikis einher. Ein synergistischer Effekt auf die Zellviabilität durch Anoikis-induzierende PolyHEMA-Beschichtung und simultane Cisplatin- oder Carboplatin-Exposition ließ sich jedoch nicht beobachten.
Im zweiten Teil dieser Arbeit wurden die durch die Connectivity Map ermittelten potentiellen Resensitizer für Cisplatin (Pararosanilin, Tolbutamid, Fludrocortison, 12,13-EODE und Topiramat) und deren Wirkung auf die Viabilität der Neuroblastomzelllinien (IMR-5, NGP, SK-N-AS, UKF-NB-2, UKF-NB-3 und UKF-NB-6) sowie ihrer Cisplatin-resistenten Sublinien untersucht.
Hierbei zeigte die Kombinationstherapie von Cisplatin mit 12,13-EODE, Topiramat oder Fludrocortison keine signifikante Reduktion der Zellviabilität im Vergleich zur Therapie mit Cisplatin alleine. Ein z. T. signifikanter Anstieg des IC50-Werts von Cisplatin in den getesteten parentalen Zellen und resistenten Sublinien ließ eher einen desensibilisierenden Effekt dieser Stoffe gegenüber Cisplatin vermuten.
Die Kombination von Cisplatin mit Pararosanilin oder Tolbutamid hingegen hatte einen deutlich wachstumshemmenden Effekt auf alle untersuchten resistenten Sublinien. Die IC50-Werte von Cisplatin wurden hier in fast allen Zelllinien signifikant reduziert, z. T. bis um den Faktor 2,45, was einer Halbierung der Cisplatindosis entspricht. Pararosanilin und Tolbutamid erwiesen sich somit als mögliche Resensitizer für Cisplatin in Cisplatin-resistenten Neuroblastomzellen.
Diese Daten lassen erkennen, dass die Connectivity Map ein vielversprechendes Werkzeug in der gezielten Therapie von chemoresistenten Neuroblastomen sein kann. In Kombination mit bisher gängigen Therapieschemata könnten Resensitizer den Erfolg der Behandlung möglicherweise deutlich verbessern. Die mögliche Toxizität der identifizierten Resensitizer, insbesondere Pararosanilin, und damit den tatsächlichen Stellenwert dieses Therapieansatzes wird man jedoch zunächst in vivo noch weiter untersuchen müssen.
Informationen zu Bildern des Afghanistankriegs werden im Internet auf den Seiten, auf denen sie veröffentlicht werden, ausschließlich durch die das Bild ergänzende Bildunterschrift geliefert. Im Internet gelten spezifische Regeln der Publikation von Bildern, die Einfluss auf Bildmotive und deren Reichweite nehmen. Es existiert eine Informationslücke hinsichtlich der Bildquelle, der innewohnenden Deutungen sowie der Bedingungen ihrer Entstehung und Verbreitung im Internet. Die eigens für Bilder im Internet entwickelte Methode des verfeinerten Netzscans legt die Regularien der Bildveröffentlichungen und Bildproduktionen frei, welche durch den eingebetteten Journalismus, neue netzinhärente Gatekeeping-Prozesse sowie die Suchmaschine Google bestimmt werden und schafft Zugangsweisen der Decodierung von Bildern und deren Quellen.
Der DNA-Translokator von T. thermophilus HB27, ebenso wie Typ-IV-Pili (T4P), sind Multiproteinkomplexe, die die Membranen und das Periplasma durchspannen. Sie sind ähnlich aufgebaut und enthalten identische Proteine. Der DNA-Translokator vermittelt Transport von DNA in das Zellinnere während der natürlichen Transformation. T4P sind filamentöse Zellorganellen, die an der inneren Membran assembliert werden und bis zu mehrere Mikrometer aus der Zelle hinausragen. Sie dienen der Anhaftung und Fortbewegung der Zellen auf Oberflächen.
Das Ziel dieser Arbeit war es, die Funktionen einzelner Komponenten der Komplexe und ihrer Proteindomänen bei der natürlichen Transformation, der T4P-Assemblierung und den durch T4P vermittelten Funktionen Adhäsion und „twitching motility“ aufzuklären.
Es sind neun Proteine bekannt, die eine duale Rolle als Komponenten des DNA-Translokators und des T4P spielen. Eines dieser Proteine ist die Assemblierungs-ATPase PilF, die Hexamere bildet. Diese cytoplasmatischen ATPase-Komplexe stellen die Energie für die Assemblierung der T4P bereit, ebenso wie für die Aufnahme freier DNA. Es ist jedoch bisher nicht geklärt, wie die durch PilF bereitgestellte Energie auf die anderen Komponenten des DNA-Translokators/T4P übertragen wird.
In dieser Arbeit konnte gezeigt werden, dass PilF an das cytoplasmatische Protein PilM des T4P und DNA-Translokators bindet. Zudem konnten Proteinkomplexe bestehend aus den Proteinen PilM, PilN und PilO heterolog produziert und aus Zellmembranen koisoliert werden. PilF interagierte mit diesen PilMNO-Komplexen via PilM. Diese Interaktionen führt zur Stimulierung der ATPase-Aktivität von PilF. Dies deutet an, dass PilM ein Kupplungsprotein ist, welches die Assemblierungs-ATPase PilF physisch und funktionell mit dem T4P/DNA-Translokator über den PilMNO-Komplex verbindet.
Neben PilF standen Präpiline von T. thermophilus im Fokus dieser Arbeit. Präpiline sind Vorläuferproteine, die zu Pilinen prozessiert werden und als solche dann die Untereinheiten der Pilus-Strukturen bilden.
Zusammenfassend konnten die Rollen einzelner Präpilin-ähnlicher Proteine bei T4P-assoziierten Funktionen geklärt werden und es konnten erste Analysen zur Charakterisierung des weitestgehend unbekannten Proteins ComZ durchgeführt werden. Desweiteren liefert diese Arbeit Hinweise darauf, dass die membranassoziierten Proteine PilM, PilN und PilO Kupplungsproteine sind, die PilF mit den periplasmatischen Komponenten des T4P/DNA-Translokators verbinden und dadurch die ATPase-Aktivität von PilF stimulieren. Die Rollen einzelner Proteindomänen von PilF und PilM bei der Protein-Protein-Interaktion und der Bindung von Liganden wurden aufgeklärt, sowie ihre Funktionen bei den T4P-vermittelten Funktionen und der natürlichen Transformation.
Eine positive Einstellung von Medizinstudierenden gegenüber Impfungen ist wichtig, um hohe Impfquoten unter Mitarbeitern des Gesundheitswesens zu erreichen. Das Wissen von Medizinstudierenden zum Thema Impfen zeigte sich in vorangegangen Befragungen lückenhaft, dabei ist ausreichendes Wissen der zukünftigen Ärzte nötig, um gerade impfskeptischen Patienten zu begegnen. In den Vorlesungen der klinischen Semester werden vor allem theoretische Informationen zu Impfungen vermittelt. Im späteren Arbeitsalltag müssen Ärzte jedoch anhand eines mehr oder weniger gut geführten Impfpasses erforderliche Impfungen identifizieren. Ziel dieser Dissertation war es, zu untersuchen, inwieweit ein Impfkurs an der Goethe-Universität Frankfurt am Main zur Verbesserung von Einstellungen, Wissen und praktischen Fertigkeiten der Studierenden im Umgang mit dem Impfpass beitragen kann.
Zu diesem Zwecke wurde ein Impfseminar entwickelt und als Pflichtkurs in die Zentrale Unterrichtswoche des Blockpraktikums Innere Medizin (zweites bzw. drittes klinisches Semester) integriert. Studierende wurden entweder in einem praktischen Kurs mit Übungen an beispielhaften Impfpässen oder in einem theoretischen Kurs mit einem Vortrag unterrichtet. Vor und nach dem Kurs sollte ein Pretest- bzw. Posttest-Fragebogen ausgefüllt werden. Der Pretest enthielt vier Fragen zur Einstellung gegenüber Impfungen (Antworten auf einer fünf- oder siebenstufigen Skala vom Likert-Typ), eine Wissensfrage (Antwort auf einer fünfstufigen Skala vom Likert-Typ) sowie vier Fragen zur Selbsteinschätzung impfpraktischer Fertigkeiten (Schulnoten). Der Posttest wiederholte die Fragen zu Einstellung und Wissen und enthielt zusätzlich eine Frage zum korrekten Vorgehen nach einer Nadelstichverletzung sowie Fragen zum Umgang mit dem Impfpass. Diese mussten mit einem beispielhaften Impfpass bearbeitet werden. Abschließend fand eine freiwillige Evaluation des Kurses statt. Die statistische Analyse erfolgte mittels Microsoft Office Excel 2007 und BiAS. für Windows.
Im Wintersemester 2017/2018 absolvierten insgesamt 149 Studierende den Impfkurs (65,8 % im praktischen Kurs), von denen 99,3 % auch an der Studie teilnahmen. Der praktische Kurs wurde in der Online-Evaluation besser bewertet als der theoretische Kurs (Note 1,9 vs. 2,9; p=0,02). Teilnehmer am praktischen Kurs bewerteten die Kursinhalte als relevanter für den späteren Arbeitsalltag (p<0.01).
66,2 % (n=98) der Studienteilnehmer waren weiblich, 44,2 % (n=65) hatten in der vorangegangen Saison eine Impfung gegen Influenza erhalten. Gegen Influenza geimpfte Studierende nannten vor allem Selbstschutz und den Schutz von Patienten als Gründe für ihre Impfung (75,4 % bzw. 73,8 %). Die häufigste Antwort nicht geimpfter Studierender war ein Mangel an Gelegenheit (68,3 %). Die Studierenden wiesen generell eine positive Einstellung gegenüber Impfungen auf. Bei Studierenden, die schon vor dem Kurs eine hohe Zustimmung zum Thema Impfen aufwiesen, konnte der Zustimmungs-Score durch den Kurs signifikant gesteigert werden (p=0,01). Bei Studierenden mit mittlerer Zustimmung oder skeptischer Haltung gegenüber Impfungen zeigte der Kurs keinen Einfluss auf den Grad der Zustimmung. Influenza-geimpfte Studierende wiesen sowohl zu Beginn als auch nach Ende des Kurses einen statistisch signifikant höheren Zustimmungs-Score als nicht Influenza-geimpfte Studierende auf (p=0,03 bzw. p=0,02). Das Wissen der Studierenden zu Impfthemen konnte durch den Kurs signifikant gesteigert werden; unabhängig von Kursformat, Alter, Geschlecht oder Influenza-Impfstatus.
Die Selbsteinschätzung, fehlende Impfungen anhand eines Impfpasses zu identifizieren, fiel signifikant (p<0,001) schlechter aus als die Einschätzung für andere Fähigkeiten. Zwischen den beiden Kursgruppen konnte, gemessen am Impfpass-Score, kein signifikanter Unterschied im Umgang mit dem Impfpass festgestellt werden. Jedoch irrten sich die Teilnehmer des praktischen Kurses häufiger bei der Identifikation abgeschlossener Grundimmunisierungen (p=0,04), vor allem bei der Meningokokken-Impfung. Zusätzlich erkannten Teilnehmer des theoretischen Kurses häufiger die Notwendigkeit einer Varizellen-Impfung (p=0,02).
Das leicht bessere Abschneiden der Teilnehmer des theoretischen Kurses erklärt sich am ehesten durch die Wiederholung der Impfempfehlungen, die deshalb in den praktischen Kurs, der aufgrund der interaktiven Lehrmethode besser bewertet wurde, integriert werden sollte.
Der Kurs konnte die Einstellung impfskeptischer Studierender nicht verändern. Ungeklärt ist, worin diese Einstellungen begründet sind und wann sie entstehen. Es zeigte sich eine Diskrepanz zwischen der positiven Einstellung zu Impfungen und der Influenza-Impfquote. Es bleibt abzuwarten, ob die Implementierung des Impfkurses zu einer Steigerung der Influenza-Impfquoten beiträgt. Gegenstand weiterer Untersuchungen sollte sein, welche Maßnahmen zielführend sind, um die generell positive Einstellung und hohe Impfabsicht in einer hohen Impfquote abzubilden.
Hintergrund: Die Therapie des elektrischen Sturms (ES), d.h. ≥3 ICD-Therapieabgaben wegen ventrikulärer Tachyarrhythmien (VT) innerhalb von 24 Stunden, besteht in der Beseitigung potenzieller reversibler Ursachen, der Gabe von Antiarrhythmika oder der Katheterablation (CA).
Ziel der Untersuchung war es, die unterschiedlichen Therapien des ES in Bezug auf Erfolg und Sicherheit zu analysieren.
Methoden: Alle ICD-Patienten, die zwischen 2000 und 2015 mit ES am Cardioangiologischen Centrum Bethanien behandelt wurden, wurden in die retrospektive Analyse eingeschlossen. Mittels elektronischer Datenbanksuche wurden potenzielle Patienten identifiziert und anhand der Krankenakte und der ICD-Auslesungen selektiert.
Neben demographischen Parametern wurden die prozeduralen Variablen der Ablationen analysiert. Alle CA wurden mit Hilfe eines 3D-Mappingsystems durchgeführt. Der Erfolg der CA wurde definiert als Nicht-Induzierbarkeit von VT durch programmierte Elektrostimulation von RVA und RVOT mit 2 Basiszykluslängen (510/440ms) und Ankopplung von bis zu 3 Extrastimuli bis zur jeweiligen Refraktärzeit.
Die Patienten wurden alle 6 Monate untersucht und der ICD-Speicher ausgelesen.
Der primäre Endpunkt war das ereignisfreie Überleben ohne adäquate ICD-Interventionen oder ES in einem Zeitraum von 12 Monaten nach Therapie des ES.
Ergebnisse: Insgesamt wurden 87 Patienten (mittleres Alter 71±9,6 Jahre; 89% männlich; LVEF 34,1%±13,3%) eingeschlossen, davon 58 konservativ und 29 per CA behandelt.
Die ICD-Implantation der Patienten in der CA-Gruppe lag länger zurück als die in der konservativen Gruppe (1868 Tage vs. 905 Tage; p = 0,0009).
Die CA war bei 26 Patienten (3 Therapieversager der kons. Gruppe einbezogen) erfolgreich. Dabei wurden im Mittel 2,6±1,8 VT abladiert. Hierzu war in 16,2% ein epikardiales Vorgehen notwendig. Die Prozeduren dauerten 153±47,5 min.
In der konservativen Gruppe hatten 15 (25,9%) Patienten eine reversible Ursache für den ES (Ischämie, Elektrolytstörung), außerdem wurden 34 (58,6%) mit Antiarrhythmika behandelt, davon 28 (48,3%) mit Amiodaron.
Der primäre Endpunkt wurde von 19 (32,8%) Patienten der konservativen und 13 (44,8%) der CA Gruppe erreicht (p = 0,35).
Es ergaben sich ebenfalls keine Unterschiede bzgl. der einzelnen Endpunkte Tod, VT-, ES- oder ICD-Schockrezidiv.
Im Falle einer erfolgreichen CA wurde der primäre Endpunkt signifikant häufiger erreicht (46,2% vs. 16,7%; p = 0,01; HR = 0,29; CI 0,11-0,75). Die Wahrscheinlichkeit das erste Jahr nach CA zu überleben war um 84% höher (88,5% vs. 50%; p = 0,01; HR = 0,16; CI 0,04-0,65).
Im Falle einer erfolgreichen CA ist die Wahrscheinlichkeit für das Überleben gegenüber einer Amiodarontherapie um 70% höher (88,5% vs. 64,3%; p= 0,07; HR = 0,30; CI 0,09-1,04).
Schlussfolgerung: Patienten mit einem ES können primär zu 81,3% mit einer CA erfolgreich behandelt werden. Wenn alle VT durch die CA eliminiert werden können, ist die CA einer konservativen Therapie mit Amiodaron in Hinblick auf das Überleben um 70% überlegen.
Glioblastome (GB) sind die häufigsten bösartigen primären Hirntumore im Erwachsenenalter. Das Therapiekonzept bei Erstdiagnose besteht aus einer maximalen Tumorresektion, gefolgt von einer Strahlentherapie mit konkomitanter und anschließend adjuvanter Chemotherapie mit dem Alkylanz Temozolomid in Zyklusform. Zusätzlich zur adjuvanten Chemotherapie werden inzwischen für supratentorielle GBs auch Tumortherapiefelder empfohlen, die über elektromagnetische Wechselfelder die Tumorzellteilung hemmen sollen. Trotz multimodaler Therapiekonzepte und Fortschritte im Verständnis der GB-Biologie ist die Prognose der Patienten bei einer 5-Jahresüberlebensrate von unter 5% sehr ernüchternd. Eine mögliche Ursache für den ausbleibenden Erfolg neuer GB-Medikamente könnten die besonderen metabolischen Bedingungen des Tumormikromilieus sein. Unter diesen kann eine therapeutische zielgerichtete Inhibition bestimmter Kinasen, wie des Epidermalen Wachstumsfaktorrezeptors (EGFR) oder mammalian Target of Rapamycin (mTOR), unerwünschte Tumorzell-protektive Effekte entfalten, da bereits gezeigt werden konnte, dass sich Tumorzellen durch Suppression der mTORC1 abhängigen Signalkaskade an Energiemangelbedingungen, wie sie im Tumormikromilieu zu finden sind, anpassen, um zu überleben. Ziel dieses Projektes war es den physiologischen mTORC1-Inhibitor DNAdamage-inducible transcript 4 (DDIT4) als möglichen intrinsischen Resistenzmechanismus gegenüber Strahlen- und Chemotherapie in GBs zu untersuchen. In verschiedenen GB-Zelllinien konnte eine Induktion von DDIT4 teilweise durch Bestrahlung, Temozolomid und generell durch die im Tumormikromilieu vorherrschende Hypoxie nachgewiesen werden. Dies gelang sowohl auf transkriptioneller Ebene als auch auf Proteinniveau. Zur Beurteilung der Relevanz dieses zellulären Anpassungsmechanismus wurden Zellen mit DDIT4 Gensuppression generiert und charakterisiert. Hier zeigte sich in klonalen Überlebensanalysen eine gesteigerte Sensibilität der Zellen mit verminderter DDIT4 Expression gegenüber Temozolomid und Strahlentherapie. Darüber hinaus waren diese Zellen gegenüber Hypoxie-induziertem Zelltod sensibilisiert. Umgekehrt führte eine stabile oder Doxycyclin- induzierte DDIT4 Überexpression zu einer signifikanten Resistenz gegenüber Strahlentherapie, Temozolomid und Hypoxie-induziertem Zelltod.
Zusammenfassend beschreiben unsere Ergebnisse DDIT4 als Mediator von Therapieresistenz gegenüber den etablierten Komponenten der GBErstlinientherapie und zudem als Anpassungsmechanismus an das hypoxische Tumormikromilieu. DDIT4 stellt somit einen möglichen Angriffspunkt für eine therapeutische Inhibition beim GB dar.
Entzündungen sind eine Gegenreaktion des Körpers auf einen schädlichen Stimulus. Eine akute Entzündung zeichnet sich durch typische Zeichen wie Schwellung, Rötung, Überwärmung, Schmerz und eingeschränkter Funktionsfähigkeit aus.Findet die Auflösung der Entzündung nur sehr langsam oder nicht statt, entsteht eine chronische Entzündung. Eine chronische Entzündung kann Auslöser vieler schwerwiegender Krankheiten, wie Diabetes mellitus, Krebs oder kardiovaskulärer Erkrankungen sein. Die symptomatische Behandlung einer chronischen Entzündung erfolgt unter anderem durch NSAIDs. Diese haben bei einer Langzeiteinnahme schwere Nebenwirkungen wie gastrointestinale Blutungen oder nephrotoxische Eigenschaften.NSAIDs greifen in den Metabolismus der Arachidonsäure-Kaskade ein. Die Arachidonsäure wird über mehrere Enzyme metabolisiert, die drei Hauptmetabolismuswege erfolgen über die Cyclooxygenase- (COX), 5-Lipoxygenase- (5-LOX) und Cytochrom P450-Enzyme (CYP450). Studien ergaben, dass die Inhibition eines Metabolismusweges eine Verschiebung der Lipidwerte innerhalb des Arachidonsäurestoffwechsels verursacht. Viele dieser Nebenwirkungen bei einer Langzeitmedikation kommen vermutlich durch die Verschiebung der Metabolite zustande.8 Diese Problematik könnte möglicherweise durch eine Inhibition mehrerer Metabolismuswege umgangen werden. Tierstudien belegen eine bessere Wirksamkeit dualer Inhibitoren gegenüber der Einzelverabreichung von „selektiven“ Inhibitoren und zudem wird ein erhöhtes Sicherheitsprofil für duale Inhibitoren postuliert.9,10 Im Rahmen dieser Arbeit wurden einerseits duale Inhibitoren der löslichen Epoxidhydrolase (sEH) und Leukotrien-A4-Hydrolase (LTA4H) und anderseits der sEH und der 5-Lipoxygenase entworfen, synthetisiert und in vitro gegenüber den betreffenden Enzymen in einem Aktivitätsassay evaluiert.
Es ist gelungen, duale Inhibitoren der sEH und LTA4H mit IC50-Wert im submikromolaren Bereich zu synthetisieren. Dies wurde durch die Erweiterung des Fragments 3-(4-(Benzyloxy)phenyl)propan-1-ol, welches Amano et al. publizierten, bewerkstelligt.11 Die synthetisierten Inhibitoren wurden analytisch charakterisiert und in vitro auf ihr inhibitorisches Potential untersucht. Des Weiteren konnte die Kristallstruktur eines dualen Inhibitors in der Bindetasche der sEH gelöst werden und damit weitere Erkenntnisse über den Bindungsmodus des Inhibitors gewonnen werden. Es konnten auch duale Inhibitoren der sEH und 5-LOX synthetisiert werden und jene auf ihr inhibitorisches Potential untersucht werden. Es wurden einige Inhibitoren mit submikromolaren bis nanomolaren IC50-Werten gegenüber beiden Zielproteinen entworfen, synthetisiert und analytisch charakterisiert. Da mehrere Inhibitoren zwei stereogene Zentren aufweisen, wurde ein Inhibitor mit definierten Stereozentren durch eine asymmetrische Synthese generiert. Ein stereogenes Zentrum wurde über drei Schritte synthetisiert und zum Nachweis der Reinheit des Enantiomeres zum Diastereomer gekuppelt. Per NMR-Spektroskopie wurde das Verhältnis (dr 9:1) der Diastereomere zueinander bestimmt. Das andere stereogene Zentrum wurde mit Hilfe eines Evans-Auxiliar über eine achtstufige Synthese dargestellt und mit dem Enantiomer aus der dreistufigen Synthese verknüpft. Per HPLC konnte ein dr-Verhältnis von 99:1 für den Inhibitor HK330 bestimmt werden. Das andere Diastereomer wurde mittels HPLC aus dem Recemat isoliert. Eine in vitro Evaluation zeigte, dass der Einfluss des stereogenen Zentrums auf das Inhibitionsvermögen marginal ist.
Nach einer Evaluation des Inhibitionsvermögens, der Löslichkeit, der Zelltoxizität, der metabolischen Stabilität und der synthetischen Zugänglichkeit, wurde der Inhibitor HK330 weiter untersucht. In einem Zellassay konnte jener die 5-LOX-Aktivität senken, die 12- und 15-LOX wurde jedoch nicht inhibiert. Des Weiteren wurde der Inhibitor in einer pharmakokinetischen Studie untersucht und erreichte Plasmawerte, die bis zu 4 h in der aktiven Konzentration des Inhibitors lagen. LC-MS/MS Untersuchungen der Plasmaproben ergaben ein erhöhtes EETs/DHETs-Verhältnis, welches die in vivo Inhibition der sEH bestätigt. Die Verbindung HK330 besitzt vielversprechende Eigenschaften und deshalb soll die Wirksamkeit des Inhibitors in einem Tiermodell getestet werden. Geeignete Tiermodelle wie die unilaterale Harnleiterobstruktion (unilateral ureteral obstruction, UUO) in Mäusen könnten Aufschlüsse über die Wirksamkeit von HK330 geben. Denn sowohl die Inhibition der 5-LOX als auch der sEH sind renoprotektiv.12,13 Die profibrinolytischen und anti-inflammatorischen Eigenschaften eines sEH-Inhibitors könnten auch in einem Tiermodell zur gestörten Wundheilung untersucht werden. In einem murinen Ohrwundmodell wurde gezeigt, dass eine Behandlung mit Epoxyeicosatriensäuren (EETs) die Wundheilung signifikant beschleunigte.15 Ramalho et al. zeigten, dass die Leukotriene des 5-LOX-Metabolisimusweges eine verminderte Wundheilung in diabetischen Mäusen (Typ 1) bewirkten.
Ziel: Das Ziel dieser Studie war es, den Einfluss der Erfahrung von Radiologen auf die Qualität der radiologischen Diagnostik von Speicheldrüsentumoren mittels MRT- und CT-Aufnahmen zu analysieren.
Material und Methoden: Drei Radiologen mit unterschiedlicher Erfahrung (R1 > 20, R2 > 11 und R3 > 7 Jahre) diagnostizierten retrospektiv 128 Fälle (116 MRT-, 12 CT-Studien) mit Verdacht auf Speicheldrüsentumoren hinsichtlich der Dignität und Entität mit Histopathologie als Referenzstandard. Um die diagnostische Leistung zu vergleichen, wurden die Sensitivität, die Spezifität, der positive/negative Vorhersagewert und die Inter-Observer-Übereinstimmung unter Verwendung von Cohens Kappa (κ) berechnet.
Ergebnisse: In 87 Fällen waren die Tumoren gutartig und in 23 Fällen bösartig, 18 Fälle waren ohne Neoplasien (davon 15 Fälle mit sonstigen Erkrankungen and 3 Fälle ohne pathologischen Befund). Bei CT-Aufnahmen wurde bei der Dignitätsbestimmung die höchste Inter-Observer-Reliabilität zwischen R1 und R2 (κ = 0,74, p <0,001) erreicht und die niedrigste zwischen R2 und R3 (κ = 0,28, p <0,001). Bei MRT-Aufnahmen war die Sensitivität/Spezifität bei der Klassifizierung von pleomorphen Adenomen wie folgt: R1 (100 % / 100 %), R2 (76,92 % / 87,01 %), R3 (43,53 % / 67,53 %) und für CT: R1 (100 % / 100 %), R2 (100 % / 88,89 %), R3 (66,67 % / 88,89 %); für Warthin-Tumor mit MRT: R1 (100 % / 97,44 %), R2 (68,42 % / 83,33 %), R3 (50,00 % / 67,95 %) und unter Verwendung von CT: R1 (100 % / 100 %), R2 (50,00 % / 100 %), R3 (100 % / 100 %); für Plattenepithelkarzinome mittels MRT: R1 (100 % / 100 %), R2 (75,00 % / 97,12 %), R3 (75,00 % / 99,04 %) und unter Verwendung von CT: R1 (100 % / 100 %), R2 (66,67 % / 88,89 %), R3 (66,67 % / 66,67 %). Bei MRT bestand die größte Übereinstimmung zwischen R1 und R2 (κ = 0,62, p <0,001) und die niedrigste zwischen R1 und R3 (κ = 0,28, p <0,001).
Schlussfolgerung: Die diagnostische Qualität bei der Bewertung von Speicheldrüsentumoren ist von der Erfahrung des Radiologen abhängig und die Diagnostikgüte steigt mit zunehmender Berufserfahrung.
Das Ziel der vorliegenden Arbeit ist die Identifikation von leistungsrelevanten kognitiven Prozessen beim komplexen Problemlösen (KPL). Außerdem soll untersucht werden, ob sich Leistungsunterschiede beim KPL zwischen soziodemografischen Gruppen durch Prozessmaße erklären lassen. Dazu wurden in den drei Einzelarbeiten, auf denen diese Arbeit basiert, verschiedene Prozesse und ihr Zusammenhang mit der Leistung beim KPL untersucht. Darüber hinaus schafft die vorliegende Arbeit einen theoretischen Rahmen, in den sich die drei Einzelarbeiten einordnen lassen. Die Fähigkeit komplexe Probleme lösen zu können, ist eine grundlegende Kompetenz in Bildung und Alltag und ermöglicht eine aktive Teilhabe an der Gesellschaft.
KPL kann daher auch als Schlüsselkompetenz in der Wissensgesellschaft des 21. Jahrhunderts verstanden werden (Binkley et al., 2012; Trilling & Fadel, 2009). Komplexe Probleme begegnen jedem Menschen im beruflichen und privaten Umfeld sowie auf gesellschaftlicher Ebene. Daher ist es wichtig zu verstehen, welche Prozesse für effektives KPL relevant sind. Darüber hinaus wurden wiederholt Leistungsunterschiede beim KPL in Abhängigkeit vom Geschlecht und vom Migrationshintergrund der Personen festgestellt (OECD, 2014a; Sonnleitner, Brunner, Keller & Martin, 2014; Wüstenberg, Greiff, Molnár & Funke, 2014).
In der ersten Arbeit wird der Zusammenhang verschiedener Aspekte von Planung mit der Leistung beim KPL untersucht. Die betrachteten Planungsaspekte sind die Dauer des längsten Planungsintervalls, der Zeitpunkt zu dem Planung erfolgt und die Variation der Dauer von Planungsintervallen im Problemlöseprozess. Zudem wird untersucht, ob die Effekte bei verschiedenen Aufgaben unterschiedlich ausgeprägt sind und ob es Interaktionseffekte der drei Planungsaspekte gibt. Die Ergebnisse zeigen, dass Planung grundsätzlich zu einem möglichst frühen Zeitpunkt stattfinden sollte. Die beiden anderen Planungsaspekte wiesen hingegen aufgabenabhängige Effekte auf. Außerdem gab es Interaktionseffekte. Insgesamt wurde bei leichten KPL-Aufgaben festgestellt, dass ähnlich wie beim analytischen Problemlösen Planung zu einem frühen Zeitpunkt einen positiven Einfluss auf die Leistung hat (Unterrainer & Owen, 2006). Auch der Einfluss der Variation der Planungsdauer hing mit der Aufgabenschwierigkeit zusammen, wobei bei leichten Aufgaben ein gleichmäßiges und bei schweren Aufgaben ein ungleichmäßigeres Vorgehen vorteilhaft war. Der Effekt der Planungsdauer war ebenfalls aufgabenabhängig, jedoch nur schwach mit der Aufgabenschwierigkeit korreliert. Somit scheinen andere Aufgabeneigenschaften für diesen Zusammenhang ursächlich zu sein.
In der zweiten Arbeit werden Leistungsunterschiede beim KPL in Abhängigkeit vom Geschlecht und vom Migrationshintergrund der Schülerinnen und Schüler untersucht.
Das Ziel dieser Arbeit ist es, Leistungsunterschiede zwischen diesen Gruppen durch Prozessmaße zu erklären. Da es Evidenz für einen Zusammenhang der Häufigkeit von Interaktion beziehungsweise Exploration mit der Leistung beim KPL gibt, werden diese als Prozessmaße verwendet (Bell & Kozlowski, 2008; Dormann & Frese, 1994; Naumann, Goldhammer, Rölke & Stelter, 2014). Erwartungskonform wurden Leistungsunterschiede beim KPL zugunsten von Jungen gegenüber Mädchen und zugunsten von Schülerinnen und Schülern ohne Migrationshintergrund gegenüber Schülerinnen und Schülern mit Migrationshintergrund festgestellt. Außerdem zeigte sich, dass beide Prozessmaße positiv mit der KPL-Leistung korrelierten. Der Leistungsunterschied zwischen Jungen und Mädchen konnte durch die Interaktionshäufigkeit teilweise und durch die Explorationshäufigkeit vollständig aufgeklärt werden. Der Leistungsunterschied in Abhängigkeit des Migrationshintergrundes konnte hingegen durch keines der beiden Maße erklärt werden.
Die dritte Arbeit hat zum einen das Ziel, die Rolle von Explorationsverhalten beim KPL genauer zu klären. Zum anderen werden mit einem explorativen Ansatz komplexe Verhaltensmuster untersucht. Dazu wurde eine weitere Differenzierung von Exploration in lösungsrelevante und lösungsunabhängige Exploration vorgenommen. Es konnte gezeigt werden, dass im Gegensatz zu den Ergebnissen aus der zweiten Arbeit lösungsunabhängige Exploration vermehrt bei erfolgloser Aufgabenbearbeitung auftritt. Lediglich lösungsrelevante Exploration scheint also zu einer höheren KPL-Leistung beizutragen.
Zudem wurden verschiedene Verhaltensmuster identifiziert, die auf konkrete Stärken und Schwächen im komplexen Problemlöseprozess von Schülerinnen und Schülern hinweisen. Die vorliegende Arbeit erweitert die theoretische Basis für KPL, indem sie kognitive Prozesse ordnet und im Sinne einer Intention interpretierbar macht. Weiterhin werden durch die empirischen Arbeiten Erkenntnisse über die Relevanz der untersuchten Prozesse für die Leistung beim KPL und für die Erklärung von Leistungsunterschieden gewonnen. Damit erleichtert diese Arbeit die Erklärung der Rolle kognitiver Prozesse beim KPL, um so das Verständnis dieses Konstruktes zu verbessern. Dies ist wiederum die Basis, um Schülerinnen und Schüler beim Erwerb der Kompetenz zum Lösen komplexer Probleme zu unterstützen und sie so auf die Herausforderungen des 21. Jahrhunderts vorzubereiten.
Im Zusammenhang mit geplanten Bauvorhaben im Industriegebiet der Stadt Bopfingen wurden in den Jahren 1989 bis 1991 archäologische Untersuchungen unter der Leitung des Landesdenkmalamtes Baden-Württemberg durchgeführt. Im Rahmen der Grabungen stieß man in vier Suchschnitten südlich der B 29 zwischen den Bopfinger Ortsteilen Flochberg und Trochtelfingen auf parallele Gräbchen, die erste Hinweise auf eine römische Straße gaben. In der Folge wurden zwei römische Straßentrassen, vier Gebäudefundamente und ein Brunnen ausgegraben. Die Lage der vier Gebäude in unmittelbarer Nähe zu einer römischen Straße ließ vermuten, dass es sich dabei um Teile einer Straßenstation handeln könnte.
Ziel dieser Arbeit ist es, anhand der zur Verfügung stehenden Grabungsdokumentation die römischen Befunde und Funde zu erschließen und zu deuten.
Im archäologischen Befund ließen sich vier Straßentrassen unterscheiden (A, 1, B, 2), die, wie die Untersuchungen gezeigt haben, zu zwei Straßen zusammengefasst werden können (Straße A/1 sowie Straße B/2), deren Richtung durch die Richtung von Gräben bestimmt werden kann.
Die Nutzung der Straße A/1 steht in einem Zusammenhang mit der Belegung des Militärlagers in Oberdorf. Für seine Belegung wird ein Zeitraum vom Ende des 1. Jahrhunderts n. Chr. bis in die Zeit zwischen der frühen 1. Hälfte und der Mitte des 2. Jahrhunderts n. Chr. angenommen. Damit fällt die Nutzung der Straße A/1 in die Zeit des Alb-Limes und in die Anfangsphase der römischen Okkupation Rätiens nördlich der Donau. Die Straße A/1 ist demnach die ältere der beiden Straßen. Die Straße B/2 wurde wahrscheinlich vom Härtsfeld und vom Nördlinger Ries aus in zwei Abschnitten zeitgleich geplant und zur Straßenstation hin gebaut. Darauf deuten einmal die unterschiedlichen Breiten der Straßenabschnitte „B“ und „2“ von 9 m und 6 m hin. Zum anderen muss das Gebäude 3 mit dem Raum 2 zu diesem Zeitpunkt bereits bestanden oder sich zumindest im Bau befunden haben, denn der Straßenverlauf passt sich in diesem Bereich dem Grundriss des Gebäudes an. Sie ist als eine Fortsetzung der Straße Faimingen-Aalen in Richtung Nördlinger Ries anzusehen.
Von den vier freigelegten Gebäuden sind zwei Gebäude mit hypokaustierten Räumen versehen und lassen sich als Bad (Gebäude 1) und als Herberge (Gebäude 2) ansprechen.
Raum 2 des Gebäudes 3 und eine Viehweide südlich der antiken Straße ins Nördlinger Ries boten die Möglichkeit, Tiere, Transportmittel und Fracht über Nacht unterzubringen. Die Räume 1 und 2 des Gebäudes 3 wurden zeitversetzt gebaut, was vermutlich auf die Notwendigkeit einer Vergrößerung von Stell- und Lagerplätzen innerhalb des Gebäudes 3 und damit auf eine Erhöhung der Nutzungsrate im Verlaufe der Betriebszeit der Straßenstation hinweist. Das vierte Gebäude zeigt den für einen gallo-römischen Umgangstempel typischen Grundriss in Form von zwei konzentrisch verlaufenden rechteckigen Mauerzügen. Der kleine Tempel stand den kultischen Bedürfnissen der Nutzer der Straßenstation zur Verfügung.
Im Fundspektrum der Straßenstation sind Gefäßkeramik, Metall und Glas mit Abstand am häufigsten vertretenen, Münzen, Baukeramik sowie Funde aus Stein und Bein dagegen nur in kleinen Mengen.
Die Gefäßkeramik der Straßenstation weist einen sehr hohen Anteil an
tongrundig-glattwandiger Ware und einen deutlich geringen Anteil an Terra Sigillata auf. Ein Vergleich mit sechs zufällig ausgewählten Gutshöfen (villae rusticae) zeigt, dass fünf Gutshöfe einen TS-Anteil von über 19 % aufweisen, während bei der Straßenstation dieser Anteil nur 5 % beträgt. Um diese Auffälligkeit zu untersuchen, wurden Magerung, Gefäßform und Warenart der gesamten Gefäßkeramik auf Identitäten untersucht. Das Ergebnis lässt vermuten, dass Reibschalen, Kragenschüsseln und Schalen von der Form wie Drag. 32. der tongrundig-glattwandigen Ware mit einer Wahrscheinlichkeit von 95 % bei ihrer Niederlegung der engobierten Ware zugerechnet werden müssen. Die Veränderung, die eine Scherbe der engobieren Ware während ihrer Bodenlagerung erfahren hat, kann man als „keramische Taphonomie“ bezeichnen. Damit lässt sich für die Straßenstation die Verteilung der Warenarten und der Gefäßformen zum Zeitpunkt der Niederlegung der Gefäße rekonstruieren. In diesem Zusammenhang wird eine Methode aufgezeigt, welche die Zugehörigkeit von gleichartigen Materialgruppen (z. B. Keramik) aus verschiedenen Fundkomplexen (z. B. aus der Abfalldeponierung) quantitativ bewertet.
Fasst man die Gefäße von Terra Sigillata und Glanztonware zum Tisch- und Tafelgeschirr zusammen, dann ergibt sich, dass der Anteil des Tisch- und Tafelgeschirrs der Straßenstation bei etwa 30 % liegt und mit dem der Gutshöfe (villae rusticae) vergleichbar ist. Dieses Ergebnis kann man so interpretieren, dass die Betreiber der Straßenstation sich bei der Beschaffung und dem Erhalt des Tisch- und Tafelgeschirrs auf das Notwendigste an
TS-Gefäßen beschränkten und das weitere Geschirr in einer der Sigillata optisch sehr ähnlichen Keramik, nämlich in engobierter Ware, beschafften. ...
Der Übergang von der Kindertageseinrichtung in die Grundschule ist seit vielen Jahren ein heftig diskutiertes Thema. In Deutschland wird die Diskussion insbesondere in der Bildungsforschung, Bildungspolitik und der Praxis kontrovers geführt.Die Hauptgründe dafür sind: Der mangelnde Konsens um das Konzept der Schulfähigkeit und Fragen, die an den Diskurs um Bildungserfolg von Kindern anschließen, sowie die strukturelle Trennung der beiden Institutionen Kindertageseinrichtung und Grundschule, die nach wie vor als Bruch oder Einschnitt problematisiert werden. Genau an dieser Schnittstelle werden Diskontinuitäten befürchtet, die sich auf den weiteren Bildungsverlauf von Kindern negativ auswirken könnten. Diese Debatte ist auch international zu beobachten, auch wenn die Bildungssysteme sich unterscheiden. Eher randständig ist dabei die Sicht von Kindern selbst. Folglich existiert wenig Wissen darüber, wie sie diesen Übergang erleben und bewerten. Im Rahmen dieser Arbeit wurde nach Wegen gesucht, wie Kinder im Übergangsprozess mehr in den Fokus gerückt werden können. Die Arbeit befasst sich vordergründig damit, einen vertieften Einblick in den Alltag von Kindern zu erfahren, der durch die Institutionen Kita und Grundschule mitgeprägt ist und von ihren Sichtweisen zu lernen. Folgende Forschungsziele wurden aus kindheitstheoretischer Perspektive bearbeitet: eine empirische Analyse über die subjektive Sichtweise von Kindern im Übergang Kita/GS vorzulegen, ein tieferes Verständnis darüber gewinnen wie Kinder den Übergang wahrnehmen und welche Erfahrungen sie machen sowie die Sicht von Kindern für die Gestaltung des Übergangs in der Praxis fruchtbar zu machen. Darüber hinaus wurden Ergebnisse dazu vorgelegt, welchen Beitrag Kinder aktiv im institutionellen Setting des Übergangs haben. Die Dissertation ist im Kontext des BMBF-Projekts „Schulfähigkeit und Befähigung – Die Sichtweisen der Akteure“ unter der Leitung von Sabine Andresen und Nadia Kutscher entstanden.
Die vorliegende kumulative, publikationsbasierte Disserationsschrift zum Thema „Diversität und Zoogeographie metazoischer Fischparasiten aus dem Südpolarmeer“ gibt einen zusammenfassenden Überblick über die von mir verfasseten ausgewählten drei (ISI-)Publiaktionen. Diese sind im Anhang (Kapitel 6) in chronologischer Reihenfolge aufgeführt. Die Verweise zu den Publikationen sind im Text mit den römischen Ziffern I-III (s.u.) gekennzeichnet. Die für die Promotion relevanten Publikationen wurden wie folgt publiziert:
I Münster J, Kochmann J, Klimpel S, Klapper R, Kuhn T (2016) Parasite fauna of Antarctic Macrourus whitsoni (Gadiformes: Macrouridae) in comparison with closely related macrourids. Parasites & Vectors 9:403
II Münster J, Kochmann J, Grigat J, Klimpel S, Kuhn T (2017) Parasite fauna of the Antarctic dragonfish Parachaenichthys charcoti (Perciformes: Bathydraconidae) and closely related Bathydraconidae from the Antarctic Peninsula, Southern Ocean. Parasites & Vectors 10:235
III Kuhn T, Zizka VMA, Münster J, Klapper R, Mattiucci S, Kochmann J, Klimpel S (2018) Lighten up the dark: metazoan parasites as indicators for the ecology of Antarctic crocodile icefish (Channichthyidae) from the north-west Antarctic Peninsula. PeerJ 6, e4638
Diese drei Publikationen sind im Ergebnisteil (Kapitel 2) separat zusammengefasst und folgend im gemeinsamen Kontext diskutiert (Kapitel 3).
Die klimatische Nische beschreibt die klimatischen Bedingungen, unter denen eine Art eine stabile Population aufrechterhalten kann. Die Quantifizierung von Klimanischen ist ein wichtiges Werkzeug, um tiefergehende Einsichten in individuelle Art-Umwelt Beziehungen zu erlangen, um den Effekt des Klimawandels effektiv zu bewerten, und um Arten- und Naturschutz zu unterstützen. Ein makroökologischer Ansatz ist von Vorteil um Ökosysteme über ein breites taxonomisches, geographisches und zeitliches Spektrum zu untersuchen, und damit die klimatischen Nischen vieler Arten auf eine konsistente Art und Weise zu quantifizieren und vergleichen.
Im Kontext des aktuellen Klimawandels ist es wichtig zu verstehen, ob Arten in der Lage sind ihre Klima-nische anzupassen. Viele bisherige Vorhersagen über klimawandelbedingte Veränderungen von Artverbreitungen beruhen auf der Annahme, dass die klimatische Nische einer Art konstant ist. Allerdings ist bekannt, dass Arten ihre klimatischen Präferenzen auf unterschiedlichen Zeitskalen verändern - sowohl über kurze (ökologische) als auch evolutionäre Zeiträume. Dies ist ein wichtiger, aber oft missachteter Faktor für die Nischenquantifizierung. Ein gutes Beispiel für solche ökologische Dynamiken sind Zugvögel, die etwa 20% aller Vogelarten ausmachen. Sie stellen eine interessante, aber auch herausfordernde Artengruppe für die Untersuchung klimatischer Nischen dar. Des Weiteren ist es wichtig klimatische Nischen über evolutionäre Zeiträume zu untersuchen, um die Prozesse zu verstehen, die Evolution, Diversifikation und Extinktion unterliegen, da sich Klimanischen mit der Anpassung einzelner Arten an neue klimatische Gegebenheiten ebenfalls wandeln. Bislang hat ein Mangel an geographisch expliziten Daten über terrestrische Umwelt-bedingungen durch evolutionäre Zeiträume eine explizite Überprüfung dieser Zusammenhänge verhindert.
Das übergeordnete Ziel dieser Dissertation war es, die ökologische (d.h. saisonale) und evolutionäre Dynamik klimatischer Nischen von Vögeln zu untersuchen. Dazu wurde ein Ansatz gewählt der makroökologische, und evolutionsbiologische Methoden vereint, um ein breites taxonomisches und zeitliches Spektrum abzudecken. Das erste Kapitel bearbeitet die Frage wie klimatische Nischen am besten zu quantifizieren sind, wenn man die Dynamik des Vogelzuges in Betracht zieht. Dazu wurde eine Datenbank erstellt, die das Zugverhalten aller 10.443 lebenden Vogelarten katalogisiert. Des Weiteren wurde eine Übersicht über die Methoden zur Quantifizierung klimatischer Nischen in der makroökologischen Literatur erstellt. Das Ergebnis derselben ist, dass die überwiegende Mehrzahl der Veröffentlichungen saisonalen Zugbewegungen nicht ausreichend berücksichtigt. Zuletzt habe ich anhand der Avifauna Australiens die Vor- und Nachteile der Verwendung von Verbreitungskarten gegenüber Punktverbreitungsdaten zur Erfassung saisonaler geographischer Muster der Artenvielfalt bewertet. Damit bietet dieses Kapitel Rahmenempfehlungen für die Datenanforderungen und Methoden, die je nach Zugverhalten einer Art, und dem geographischen, bzw. zeitlichen Fokus einer Studie für eine optimale Nischenquantifizierung notwendig sind.
Im zweiten Kapitel untersuchte ich die saisonale Dynamik klimatischer Nischen von Zugvögeln. Dabei überprüfte ich die Hypothese, dass Zugvögel in ihrem Jahreszyklus durch die Zugbewegung eine gewisse Klimanische verfolgen. Zu diesem Zweck habe ich mit Brut- und Überwinterungsarealkarten saisonale Klima-nischen für 437 Zug- und Standvogelarten aus acht Kladen der Sperlingsvögel (Passeriformes) charakterisiert. Mit Ordinationsmethoden wurde dann der innerartliche saisonale Nischenüberlapp quantifiziert. Der Beweis für die Verfolgung einer klimatischen Nische in einer Art war von mehreren Faktoren, z.B. der geographischen Verortung des Brutareals und der Zugrichtung, abhängig. Dies lässt darauf schließen, dass sich die Ursachen für den Vogelzug sowohl geographisch als auch saisonal (d.h. abhängig von der Zugrichtung) unterscheiden.
Im dritten Kapitel untersuchte ich die evolutionäre Dynamik klimatischer Nischen in Steinschmätzern (Gattung Oenanthe), um explizit zu untersuchen ob es einen Zusammenhang zwischen den Raten klimatischer Nischen-evolution und den Veränderungen paläoklimatischer Bedingungen gibt. Methoden der Klimanischen-quantifizierung wurden mit datierten molekularen Phylogenien verknüpft, um die Raten klimatischer Nischen-evolution mit einem variablen Ratenmodell abzuschätzen. Paläoklimatische Umweltbedingungen wurden mit paläobiologischen Methoden aus dem Fossilbericht altweltlicher Säugetiere der vergangenen 20 Millionen Jahre erschlossen. Die Fallstudie konnte keinen Zusammenhang zwischen Nischenevolution und Umwelt-bedingungen feststellen. Dies legt nahe, dass Vögel als überaus mobile Organismen, auf Klimaveränderungen eher durch Arealverschiebungen reagieren, als durch eine Anpassung ihrer klimatischen Nische. Die Klimanischen der Steinschmätzer waren allerdings an sich nicht statisch, so dass andere Faktoren wie z.B. biologische Wechselbeziehungen für die Nischenevolution dieser Gattung verantwortlich sein müssen.
Meine Dissertation beleuchtet die zentrale Bedeutung zeitlicher Dynamiken für den Nischenraum, den Arten über ökologische (d.h. saisonale) und evolutionäre Zeiträume einnehmen. Aus ihr ergeben sich methodische Konsequenzen für zukünftige Studien klimatischer Nischen. Der Befund, dass die klimatischen Nischen von Zugvögeln nicht saisonal konstant sind, zeigt dass es für mobile Kladen wie Vögel notwendig ist die klimatischen Bedingungen über den gesamten Jahreszyklus und das gesamte Verbreitungsgebiet in Betracht zu nehmen, um die jeweiligen klimatischen Nischen voll charakterisieren zu können.
Über diese methodischen Innovationen hinaus, hat meine Arbeit auch wichtige theoretische und praktische Schlussfolgerungen produziert. Zum einen zeigt die Betrachtung saisonaler Klimanischen, dass Zugvögel entgegen gängiger Annahmen nicht denselben Umweltbedingungen in ihren Brut- und Überwinterungsarealen ausgesetzt sind. Zum anderen zeigt meine Betrachtung von Klimanischen über evolutionäre Zeiträume, dass die Nischenevolution nicht von klimatischen Bedingungen angetrieben wird. Zusammengenommen zeigen diese Ergebnisse auf unterschiedlichen Zeitskalen, dass das Klima nicht der alleinige Faktor ist, der die Artverbreitung von Vögeln bestimmt. Während dieser Befund Raum für Optimismus schafft, was die Auswirkungen des aktuellen Klimawandels auf Vögel angeht, zeigt er auch auf, dass Faktoren wie wechselseitige Artbeziehungen und das Mobilitätspotential von Arten einen wichtigen Einfluss auf Artverbreitungen ausüben. Diese Faktoren könnten jedoch an sich vom Klimawandel beeinflusst sein, und Untersuchungen dieses Zusammenspiels zwischen Klima und anderen Faktoren und die daraus resultierenden Einflüsse auf Artareale bieten ein vielversprechendes Arbeitsfeld für zukünftige Studien.
Hintergrund: Ein Großteil der Rupturen des vorderen Kreuzbandes (VKB) ereignet sich ohne Gegnerkontakt. Misslungene Landungen zählen zu den häufigsten kontaktlosen Verletzungsursachen, insbesondere bei Spielsportler/-innen. Im Vergleich zu vorgeplanten/antizipierten Landungen reduzieren unvorhersehbare/nicht-antizipierte Landeanforderungen, bei denen die Entscheidung für das Landebein erst in der Luft getroffen wird, die biomechanische Landestabilität. Die veränderte Landecharakteristik wird mit einem gesteigerten VKB-Ruptur-Risiko in Verbindung gebracht.
Ziele: Diese Dissertation überprüft, ob VKB-rekonstruierte (VKBR) im Vergleich zu verletzungsfreien Testpersonen (KG) eine stärkere Abnahme der Lande- und Entscheidungsqualität unter nicht-antizipierten gegenüber antizipierten Landeanforderungen (höhere nicht-antizipierte Landekosten) aufweisen. Zudem wird innerhalb beider Gruppen untersucht, inwiefern die potenziell vorhandenen nicht-antizipierten Landekosten mit spezifischen niedrigeren und höheren kognitiven Funktionen assoziiert sind. Darüber hinaus werden die erfassten kognitiven Messgrößen auf Gruppenunterschiede überprüft.
Methode: Zehn VKBR-Testpersonen (28 ± 4 Jahre, alle männlich) und 20 Kontrolltestpersonen ohne VKB-Verletzungshistorie (27 ± 4 Jahre, alle männlich) führten jeweils 70 Counter-Movement-Jumps mit einbeinigen Landungen auf eine Druckmessplatte durch. Alle Probanden absolvierten in randomisierter Reihenfolge eine antizipierte (Landung auf links oder rechts bereits vor Absprung bekannt) und eine nicht-antizipierte/-vorplanbare (visuelle Landeinformation erst nach Absprung angezeigt; etwa 360 ms vor Bodenkontakt) Landebedingung (n = 35 jeweils). Die Operationalisierung der biomechanischen Landestabilität erfolgte anhand der maximalen vertikalen Bodenreaktionskraft (peak ground reaction force, pVGRF), Stabilisationszeit (time to stabilisation, TTS), posturalen Schwankung (center of pressure, COP) sowie der Standsicherheit (Anzahl an Standfehler; Bodenberührung mit Spielbein). Die Entscheidungsqualität wurde anhand der Landefehlerzahl (Landung mit falschem Fuß oder beidfüßig) bewertet. Zur Erfassung niedrigerer (z. B. Reaktionsgeschwindigkeit, visuelle Wahrnehmung) und höherer kognitiver Funktionen (z. B. kognitive Flexibilität, Arbeitsgedächtnis, Inhibitionskontrolle) kamen Computer- sowie Papier-und-Stiftbasierte Tests zum Einsatz.
Ergebnisse: Innerhalb beider Gruppen führte die nicht-antizipierte im Vergleich zur antizipierten Landebedingung zu höheren COP-Werten (KG: p < 0,01; d=1,1; VKBR: p < 0,01; d = 1,1) sowie zu mehr Stand- (KG: p < 0,001; d = 0,9; VKBR: p < 0,05; d = 0,6) und Lande-fehlern (KG: p < 0.01; d = 1,3; VKBR: p < 0,001; d = 1,9). Keine Unterschiede zeigten sich im Hinblick auf TTS und pVGRF (p > 0,05). Weder innerhalb noch zwischen den Bedingungen differierten die beiden Gruppen in einem der erfassten Lande-/Entscheidungsparameter systematisch (p > 0,05). Innerhalb der KG war die Zunahme der COP-Schwankungen mit einer geringeren Interferenzkontrolle assoziiert (r = 0,48; p < 0,05). Eine höhere Anzahl nicht-antizipierter Landefehler (geringere Entscheidungsqualität) stand in einem signifikanten Zusammenhang (Kovariate: Flugzeit/Sprungdauer) mit einer geringeren kognitiven Flexibilitäts-/Arbeitsgedächtnis- (r = 0,54; p < 0,05) und Kurzzeitgedächtnisleistung (r = -0,55; p < 0,05). Ähnlich verhielt es sich in der VKBR-Gruppe. Allerdings erreichten die Zusammenhänge hier keine statistische Signifikanz (p > 0,05). Innerhalb der VKBR-Gruppe war jedoch eine geringere Entscheidungsqualität mit einer verminderten Interferenz- (r = 0.67, p < 0,05) und Aufmerksamkeitskontrolle (r = 0.66, p < 0,05) korreliert. Im Gegensatz zu den nicht-antizipierten Landefehlern, ergab sich für KG im Hinblick auf die Zunahme der Standfehlerzahl (nicht-antizipierte Landekosten) ein umgekehrt proportionaler Zusammenhang mit einer höheren kognitiven Flexibilität-/ Arbeitsgedächtnis- (r = -0,48; p < 0,05) und Kurzzeitgedächtnisleistung (r = 0,50; p < 0,05). Im Vergleich zur KG, wiesen die VKBR-Testpersonen eine schnellere visuell-motorische Reaktionsgeschwindigkeit auf (p < 0,05). Ansonsten unterschieden sich die Gruppen in keiner der getesteten kognitiven Dimensionen signifikant.
Schlussfolgerungen: Den Ergebnissen dieser Dissertation zufolge, scheinen VKBR- im Vergleich zu Kontrolltestpersonen keine größeren Schwierigkeiten im Umgang mit den nicht-antizipierten Landeanforderungen aufzuweisen. Zudem liefern die Resultate erstmals Hinweise für die Relevanz der höheren kognitiven Funktionen für die Landesicherheit unter nicht-antizipierten Anforderungen. Diese Zusammenhänge sind insofern von besonderer Relevanz, als dass die in beiden Gruppen detektierten nicht-antizipierten Landekosten, Spielsporttreibende einem erhöhten Verletzungsrisiko aussetzen können. Die Verifizierung dieser Befunde durch zukünftige Studien bietet daher wertvolle primär- und sekundärpräventive Potenziale durch eine stärkere inhaltliche Ausrichtung der Trainings- und Therapiepraxis auf die komplexen kognitiv-motorischen Spielanforderungen.
Eine qualitative und quantitative Studie zum Einsatz der virtuellen Mikroskopie in der Schule
(2019)
Das Mikroskop stellt in der Alltagswelt ein Sinnbild für naturwissenschaftliches Arbeiten dar (Coleman 2009, Paulsen 2010). Im Bereich der Lehre eröffnet dieses Laborgerät das Eintauchen in die mikroskopische Dimension und besitzt eine wesentliche Rolle bei der damit verbundenen Erkenntnisgewinnung, insbesondere von funktionsmorphologischen Konzepten (Gropengießer & Kattmann 2008, Kremer 2002). Jedoch wird die Durchführung der klassischen Mikroskopie und damit die aktive Auseinandersetzung mit mikroskopischen Präparaten im schulischen (Biologie-)Unterricht durch verschiedene Faktoren erschwert. Zu den Limitierungen gehören beispielsweise die Verfügbarkeit geeigneter Mikroskope und Dauerpräparate, die aufwendige Vor- und Nachbereitungszeit sowie der zeitliche Aufwand bei der Herstellung hochwertiger mikroskopischer Frischpräparate. Die virtuelle Mikroskopie könnte diese Schwierigkeiten umgehen. Das virtuelle Mikroskop kann als eine Simulation verstanden werden, bei der die bildanalytischen Vorgehensweisen bei mikroskopischen Präparaten analog zur klassischen Mikroskopie nachvollzogen werden können (Gu & Oglivie 2005, Hentschel 2009). Hierbei umfasst das virtuelle Mikroskop ein Akquisitionssystem zum Einscannen und Digitalisieren mikroskopischer Präparate, einen Server zum Speichern und Bereitstellen der entstandenen virtuellen hochauflösenden Aufnahmen (WSI) sowie eine Bildbetrachtungssoftware auf einem Anwendungsrechner (Kalinski et al. 2006). Basierend auf einer Nutzerbefragung wurde eine Betrachtungssoftware programmiert, die hinsicht¬lich ihrer Benutzerfreundlichkeit und ihren Eigenschaften auf den schulischen Einsatz angepasst wurde. Um die Relevanz in diesem Anwendungsfeld zu testen, wurden die Untersuchungen der vorliegenden Arbeit sowohl im Schülerlabor Goethe BioLab als auch in der universitären Lehre der Abteilung für Didaktik der Biowissen¬schaften der Goethe–Universität Frankfurt am Main durchgeführt. Der Schülerlabortag „Blut und das virtuelle Mikroskop“ wurde entwickelt, um die computerbasierte virtuelle Mikroskopie mit Schülern ergänzend zur klassischen Mikroskopie in einem fachlichen Kontext anzuwenden und zu erforschen.
Beruhend auf der Vergleichbarkeit beider Mikroskopiemethoden (Paulsen et al. 2010) lagen die Forschungsschwerpunkte neben der Nutzung der Software durch Schülerinnen und Schülern auf einer gegenüberstellenden Beurteilung beider mikroskopischer Verfahren von Schülern und Lehramtsstudierenden. Es wurden in diesem Zusammenhang drei zentrale Forschungsfragen formuliert.
Die erste Forschungsfrage untersucht das Nutzerverhalten der Schüler (n = 123) bei der virtuellen Mikroskopie mittels automatisch generierter Datensätze während der Anwendung der Bildbetrachtungssoftware. Die Analyse der Anwendungsdaten zeigt, dass das mikroskopische Sehen, insbesondere das Fokussieren auf relevante Bildbereiche, im virtuellen Humanblutausstrich angewandt wurde.
Die zweite Forschungsfrage untersuchte das aktuelle Interesses bei Schülern (n = 293) im direkten Vergleich zwischen virtueller und klassischer Mikroskopie. Dabei wurde das aktuelle Interesse aufgrund des engen Zusammenhangs zum Lernen (vgl. Krapp 1992a) als Indikator der Lernwirksamkeit gewählt. Die Erhebung erfolgte mittels eines Fragebogens. Die Ergebnisse dieser Untersuchung zeigen, dass der Einsatz beider mikroskopischer Verfahren das aktuelle Interesse fördert, das emotionale und das wertbezogene Merkmal sich jedoch zugunsten der klassischen Mikroskopie signifikant unterscheiden.
Im Rahmen der dritten Forschungsfrage erfolgte eine Beurteilung der Vorteile virtueller Mikroskopie gegenüber der klassischen Mikroskopie von Schülern (n = 504) sowie Lehramtsstudierenden (n = 247). Hierbei diente ebenfalls ein Fragebogen als Grundlage der Erhebung. Die Auswertung zeigt, dass sowohl die Schüler als auch die Studierenden die Vorteile der virtuellen Mikroskopie klar erkennen. Es liegen jedoch signifikante Unterschiede zwischen den Versuchsgruppen vor. Die Schüler bewerten die Vorteile betreffend der Förderung von Lernprozessen, des Erkennens von Strukturen und des mikroskopischen Zeichnens höher.
Zusammenfassend bestärken die Ergebnisse dieser Studie die Ansicht, dass das virtuelle Mikroskop nicht als Ersatz, sondern als sinnvolle Ergänzung zu der klassischen Lichtmikroskopie angesehen werden sollte (Bloodgood et al. 2006, Berg et al. 2016, Braun & Kearns 2008, Hufnagl et al. 2012, Mione et al. 2013, Santiago 2018, Scoville & Buskirk 2007). Dabei sollte die vorliegende Arbeit als Einstieg verstanden werden, um bestehende Forschungslücken zu verkleinern, damit ein Transfer der virtuellen Mikroskopie in den schulischen Kontext möglichst lernwirksam erfolgen kann.
Der menschliche Knochen besitzt, als Folge einer Verletzung oder eines chirurgischen Eingriffs, eine große Fähigkeit zur Reparatur und Regeneration. Die Knochenheilung beinhaltet ein komplexes Zusammenspiel von Zellen, Wachstumsfaktoren, Zytokinen sowie der extrazellulären Matrix (Hoerth et al. 2014). Nichtsdestotrotz führt ein Knochenbruch zu einer dramatischen Veränderung der mechanischen Belastbarkeit an der Verletzungsstelle. Der Abstand zwischen den beiden Frakturenden bildet einen entscheidenden Faktor in der Knochenheilung. Hier wird zwischen der primären, der osteonalen Knochenheilung und der sekundären, der kallusformierenden Knochenheilung unterschieden. Umso größer der Frakturspalt ist, desto größer wird die Instabilität, die Heilungsverzögerung und damit auch die Gefahr einer Pseudoarthrose (Hoerth et al., 2014; Marsell et Einhorn, 2011).
Große diaphysale Defekte werden meistens durch Traumata, Infektionen oder Tumore bedingt. Sie werden als critical size defects (CSD) bezeichnet, wenn eine chirurgische Intervention zur Heilung notwendig ist (Rosset et al., 2014). Langstreckige Knochendefekte stellen immer noch eine sehr große Herausforderung in der rekonstruktiven Chirurgie dar. Deswegen ist die Untersuchung und Weiterentwicklung von implantierbaren biomedizinischen Materialien bei der Behandlung von CSD eine wichtige Aufgabe.
Im Augenblick ist die häufigste Behandlungsmethode großer diaphysaler Defekte die Autologe Spongiosaplastik (ASP) und wird als Goldstandart der Therapie bezeichnet. Jedoch stehen die autologen Knochenmaterialien nur begrenzt zur Verfügung und verursachen viele Entnahmemorbiditäten. Darüber hinaus gibt es allogene, xenogene und synthetische Knochentransplantate. Dennoch ist noch keine der Therapiemöglichkeiten so ausgereift, dass die ASP dadurch ersetzt werden könnte. Die allogenen und xenogenen Materialien sind von der Menge unbegrenzt, besitzen aber eine niedrigere Biokompatibilität, höhere Infektionsgefahr und schlechtere Ergebnisse in der Langzeitwirkung (Wang et al., 2014).
Ein weiterer Nachteil gegenüber der ASP besteht darin, dass die synthetischen Knochenersatzmaterialien keine osteoinduktiven und osteogenen Eingenschaften besitzen. Eine Möglichkeit diese Qualitäten zu erhalten ist, sie mit Zellsuspensionen, wie z.B. bone marrow mononuclear cells (BMC), zu kombinieren und somit zu versuchen ein ausgereiftes Therapiekonzept zu entwickeln.
Zugleich beschreibt Masquelet et al. (2000) eine neue Technik, ein zweistufiges Verfahren zur Rekonstruktion von Knochendefekten. Es wird eine biologisch aktive Membran induziert, welche verschiedene Wachstumsfaktoren (wie z.B. VEGF, TGF beta1, BMP-2) sezerniert, die osteoinduktiv wirksam sind. Mit diesem operativen Verfahren wurden bereits gute klinische Ergebnisse bei Knochendefekten nach Tumorresektionen und Traumata erzielt.
Das Ziel dieser Studie ist es einen anorganischen Knochenersatzstoff von Heraeus Herafill unter Verwendung der induzierten Membrantechnik nach Masquelet am Rattenfemur zu testen. Die Forschung erfolgt dabei unter der Hypothese, dass die Korngröße des Knochenersatzmaterials Herafill in Kombination mit BMC-Besiedelung Einfluss auf die Heilung eines kritischen Knochendefekts hat.
Die Überlebensraten bei Krebspatienten werden dank effektiver Früherkennung und innovativer Therapiemethoden immer höher. Umso wichtiger ist es, die vielen Nebeneffekte der Krankheit und Therapie zu erforschen, um die Patienten bei der Bewältigung ihres Alltags während und nach der Erkrankung optimal zu unterstützen. In den letzten Jahren konnten einige Studien bereits zeigen, dass es kognitive Einschränkungen bei Brustkrebspatientinnen nicht erst nach einer Systemtherapie, sondern schon kurz nach der Diagnose gibt.
Die vorliegende Studie knüpfte an diesem Punkt an und hat untersucht, in wie weit Brustkrebspatientinnen schon vor einer systemischen Chemotherapie von kognitiven Defiziten betroffen sind, insbesondere im Bereich der Aufmerksamkeit und Konzentration, der in früheren Studien als eine der am häufigsten betroffenen kognitiven Fähigkeiten herausgestellt werden konnte.
Es wurde angenommen, dass sowohl die objektiv als auch die subjektiv gemessenen Aufmerksamkeitsleistungen bei Frauen mit Brustkrebs schlechter sind als bei gesunden Kontrollprobandinnen. Weiterhin wurde angenommen, dass die Aufmerksamkeitsleistungen negativ mit dem Grad psychischer Belastungen korrelieren, insbesondere mit Angst- und Depressionssymptomen.
Zur Überprüfung dieser Annahmen wurden 20 Frauen, die kürzlich eine Brustkrebsdiagnose erhalten hatten, mit einer passenden Kontrollgruppe von 20 gesunden Frauen verglichen. Alle Teilnehmerinnen führten nach Erfassung demographischer und medizinischer Informationen einen kurzen Intelligenztest durch und anschließend Messungen, die die objektiven Leistungen im Bereich Aufmerksamkeit und Gedächtnis untersuchten. Diese wurden teils auf dem Papier, teils computerisiert durchgeführt. Nach den objektiven Tests folgte die Selbsteinschätzung von Lebensqualität, Wahrnehmung im Bereich Konzentration und Gedächtnis und ein Screening zu Angst- und Depressionssymptomen.
Wie angenommen, zeigten sich bei den objektiven Ergebnissen der Aufmerksamkeitstests leichte Einschränkungen der Patientinnen gegenüber der Kontrollgruppe. Auch die subjektive Einschätzung der Leistung war signifikant schlechter als bei den gesunden Frauen. Zwischen den Angst- und Depressionswerten und den objektiven Leistungstests ließ sich kein Zusammenhang feststellen, ebenso gab es keine Assoziation zwischen den objektiv und subjektiv erfassten Ergebnissen für Aufmerksamkeit und Konzentration.
Beim Betrachten der Gesamtgruppe zeigte sich jedoch eine signifikante Korrelation zwischen den subjektiv eingeschätzten kognitiven Leistungen und den Werten bei Angst und Depression.
Durch diese Arbeit wurden bisherige Studien in weiten Teilen bestätigt. Die Ergebnisse bei objektiven Tests sind in der aktuellen Literatur noch uneinheitlich. Die vorliegenden Daten weisen darauf hin, dass Frauen mit einer Brustkrebsdiagnose durchaus kognitive Defizite haben können, diese jedoch relativ mild ausfallen. Dass es keinen Zusammenhang zwischen objektiven und subjektiven Ergebnissen gibt, bestätigt ebenfalls aktuelle Forschungsergebnisse. Die Assoziation zwischen den psychischen Belastungen und den selbst wahrgenommenen kognitiven Leistungen zeigt, wie wichtig die Bewältigung von Depression und Angst sind, um den Patientinnen einen selbstständigen Alltag in der Krankheitsphase zu ermöglichen.
Die CXCR4-CXCL12-Signalachse gilt als eines der bislang am besten studierten Signalsysteme in der Hämatopoese. Allerdings stammt unser Wissen über diesen kritischen Signalweg maßgeblich aus subtraktiven Studien, wie z.B. knock-out Modellen oder pharmakologischer Inaktivierung. Zwar können aus diesen Modellen wichtige Erkenntnisse über die physiologische Rolle dieses Signalwegs abgeleitet werden, aber dennoch bleiben einige Phänomene ungeklärt. So konnte gezeigt werden, dass es sowohl bei CXCR4-Defizienz als auch bei Patienten mit dem WHIM-Syndrom (ausgelöst durch eine überaktive CXCR4-Mutante) zu einer ausgeprägten B-Zellaplasie kommt. Dies scheint intuitiv nicht vereinbar. Daher wurde in der vorliegenden Arbeit ein Modell mit einer überaktiven CXCR4- Mutante (CXCR41013/1013) hinsichtlich der (un)reifen Hämatopoese systematisch untersucht.
Zunächst wurden hämatopoetische Stamm- und Vorläuferzellen (HSPC) hinsichtlich der aberranten CXCR4-Signalweiterleitung ex vivo analysiert. Die CXCR4-Überaktivierung konnte sowohl in frühen Effekten nach Aktivierung des Rezeptors (F-Aktinpolymerisierung, Aktivierung des MAPK- Signalweges), als auch in späten, zellfunktionellen Effekten (Migrationsassay) nachgewiesen werden. Die veränderte CXCR4 Signalintegration hatte auch bereits in der Homöostase organismische Konsequenzen im Mausmodell. So konnte eine massiv vergrößerte HSPC-Population in der Milz von CXCR41013/1013-Tieren detektiert werden, im Sinne einer extramedullären Hämatopoese. Knochenmarks-HSPC aus CXCR41013/1013-Tiere zeigten ein massiv eingeschränktes (serielles) Repopulationspotenzial. Kombiniert mit der oben genannten ausgeprägten extramedullären Hämatopoese in diesen Tiere interpretieren wir diese Beobachtung als starken Hinweis auf eine dysfunktionelle Interaktion der Stammzellen mit der hämatopoetischen Stammzellnische im Knochenmark. In diesem Zusammenhang besonders interessant ist die Tatsache, dass auch ein Kompetitorknochenmark das Überleben einer Sekundärtransplantation nicht sichert. Dabei ist zu diskutieren, ob dieser Effekt durch eine effizientere Besetzung von Stammzellnischen durch CXCR41013/1013-Zellen, eine Akkumulation von CXCL12 in der Knochenmarkflüssigkeit (siehe unten) oder eventuell sogar ein vesikelabhänginger Transport von mutiertem CXCR4 in Kompetitorzellen ausgelöst wird. Ein weiteres Merkmal dieser Dysfunktion könnte ebenfalls die gezeigte Akkumulation von CXCL12 in der Knochenmarkflüssigkeit von CXCR41013/1013-Tiere darstellen. Diese Akkumulation könnte die Suppression co-transplantierter wildtypischer Hämatopoese sowie die verminderte Effizienz der G-CSF-induzierten Stammzellmobilisierung funktionell erklären. Zusätzlich konnte gezeigt werden, dass die Mobilisierung von Stammzellen aus dem Knochenmark durch einen CXCR4- Inhibitor in CXCR41013/1013-Tieren ebenfalls erheblich hinter der in Wildtypmäusen zurückbleibt.
Analog zu Patienten mit WHIM-Syndrom zeichnen sich CXCR41013/1013-Mäuse weiterhin durch eine ausgeprägte Leukopenie, insbesondere durch einen schweren B-Zell-Mangel, aus. Aus diesem Grund wurde die B-Lymphopoese und humorale Immunfunktion genauer analysiert. Eine grundsätzliche humorale Immunkompetenz von CXCR41013/1013-Tieren konnte nachgewiesen werden, jedoch ist die B-Memory-Funktion erheblich eingeschränkt. Durchflusszytometrisch und funktionell konnte eine reduzierte preB/pro-B Population im Knochenmark bei einer gleichzeitig vergrößerten preB/pro-B Population in der Milz (vgl. extramedulläre Hämatopoese) nachgewiesen werden. Ebenfalls konnten wir in dieser Zellpopulation eine stark erhöhte CXCR4-Oberflächenexpression im Vergleich zu wildtypischen Zellen nachweisen. Da diese unreifen B-Zellen keine verstärke Apoptoserate aufweisen, gehen wir derzeit davon aus, dass der Differenzierungsstopp nicht durch selektiven Zelltod, sondern durch aberrante Retention der preB/proB-Zellen in einer primitiven B-Vorläufer- Nische im Knochenmark zustande kommt, beziehungsweise durch eine gestörte Migration in differenzierende Nischen im Knochenmark. Alternativ könnte die Überdosis CXCR4-Signal differenzierenden Signalen entgegenstehen. Beide Hypothesen können das eingangs erwähnte Paradoxon bezüglich einer B-Zellaplasie in CXCR4-defizienten und CXCR4-überaktiven Zellen hinreichend erklären.
Das Wissen über die Wolkenmikrophysik und die Wechselwirkung zwischen Niederschlag und Aerosol ist ein wichtiger Baustein zur Optimierung von Klima- und Wettermodellen. Ein Großteil des Niederschlags in den mittleren Breiten fällt aus Mischphasenwolken, die aus unterkühlten Tröpfchen und Eispartikeln bestehen. Die Eispartikel bilden sich an speziellen Aerosolpartikeln, die als Eiskeime (INP) wirken können. Die Wahrscheinlichkeit eines Aerosols als Eiskeim zu wirken, nimmt mit abnehmender Temperatur und steigender Wassersättigung zu. Mineralstaubpartikel sind die häufigsten Eiskeime, die ab Temperaturen ≤−15°C aktiv sind, biologische Partikel wirken schon bei wärmeren Bedingungen. Große Wissenslücken bestehen noch bei der globalen Konzentration von Eiskeimen, inklusive deren geographischer und jahreszeitlicher Variabilität.
Im Zentrum der Experimente, die für diese Arbeit durchgeführt wurden, steht der Eiskeimzähler FRIDGE (Frankfurt Ice Deposition Freezing Experiment). Je nach Aufbau und Anwendung des Instruments werden zwei verschiedene Ansätze zur Aktivierung von Eiskeimen verfolgt. Die ursprüngliche und namensgebende Methode in Form einer Vakuum-Diffusionskammer wurde zur Untersuchung von Eisnukleation via Depositionsgefrieren (an INP_D) entwickelt (Klein et al., 2010). Danielczok (2015) nutzte einige Bestandteile des Analysegeräts, um auch Immersionsgefrieren (an INP_I) in Form von Tröpfchengefrieren à la Vali (1971) zu studieren. In der vorliegenden Arbeit wurde diese Anwendungsmöglichkeit von FRIDGE weiterentwickelt. Ein zentraler Schritt war dabei die präzise Charakterisierung des Gefrierverhaltens von Tröpfchen aus Reinstwasser ohne zusätzliches Aerosol. Die Einbeziehung dieses sogenannten Hintergrundgefrierens, das für jedes Instrument und Messverfahren spezifisch ist, ermöglichte es, die Minimaltemperatur, für die zuverlässige Ergebnisse produziert werden können, von −22°C auf −29°C herabzusetzen. Der dadurch hinzugewonnene Temperaturbereich ist für Eisnukleation in Mischphasenwolken äußerst relevant.
Beide Anwendungsmethoden wurden im Rahmen des Fifth International Workshop on Ice Nucleation – Phase 2 (FIN-02) sowie bei einer weiteren Kampagne zur Messung von Eisnukleation an Cellulosepartikeln mit über zwanzig anderen Eiskeimzählern verglichen. Mit FRIDGE als Diffusionskammer wurde für die Mehrheit der untersuchten Aerosoltypen eine zufriedenstellende Übereinstimmung mit den anderen Instrumenten beobachtet. Die Experimente mit gefrierenden Tröpfchen in FRIDGE erzielten ausnahmslos Ergebnisse, die inmitten der Werte der anderen Instrumente lagen. Die erfolgreiche Validierung – besonders der neuen Anwendungsmethode – war das erste Ziel dieser Arbeit und die notwendige Voraussetzung für die anschließenden Feldmessungen.
Atmosphärische Eiskeimkonzentrationen wurden in mehrwöchigen Feldmesskampagnen an drei sehr unterschiedlichen Orten und atmosphärischen Bedingungen untersucht: an der Hochalpinen Forschungsstation Jungfraujoch (JFJ), am Storm Peak Laboratory (SPL) in den Rocky Mountains und am Cyprus Atmospheric Observatory (CAO) in Zypern. Am JFJ wurde eine INP-Konzentration beobachtet, die um den Faktor 20 niedriger als an den anderen beiden Stationen war. Der Grund dafür war, dass sich das Jungfraujoch die meiste Zeit der Messungen in der freien Troposphäre befand. Dementsprechend waren die Bedingungen an der Station von aerosolpartikelarmer Luft mit wenigen Eiskeimen geprägt. An zwei Standorten wurde Mineralstaub als ein Parameter, der die lokale INP-Konzentration positiv beeinflusst, identifiziert. Sowohl am JFJ als auch am CAO erhöhte ferntransportierter Saharastaub die INP-Konzentration.
Die Kombination der zwei Analysemethoden, die Aerosolproben aus derselben Luft entweder in trockenem Ausgangszustand oder in Tröpfchen suspendiert untersuchen, offenbarte eine interessante Eigenschaft der INP. Es herrschte eine offensichtliche Parallelität von INP_D- und INP_I- Konzentrationen. Bei fast allen Messungen waren INP_I etwa 10-mal häufiger als INP_D. Die Aussage trifft gleichermaßen auf sehr niedrige Konzentrationen am JFJ wie auch auf hohe Konzentrationen am SPL und CAO zu. Die einzige Ausnahme bilden Cellulosepartikel. Daraus lässt sich schließen, dass INP_D und INP_I dieselben Partikel sind, die je nach Aktivierungskonditionen Eisnukleation unterschiedlich effektiv hervorrufen.
Dass Emotionen den Subjekten eine wichtige Orientierungshilfe in jeglichen Situationen des Alltags bieten, gilt innerhalb der soziologischen Emotionsforschung mittlerweile als Allgemeingut. Was allerdings, wenn uns unsere Gefühle im Stich lassen, da sie nicht klar eingeordnet oder expliziert werden können? Was also, wenn widersprüchliche Emotionen Zweifel nähren, uns an Entscheidungen hadern lassen oder gar Entscheidungen verunmöglichen? Die hieraus resultierenden Unsicherheiten und sich daran anschließenden Handlungsprobleme sind Gegenstand des Buches. Neben Strategien des Umgangs mit emotionalen Ambivalenzerfahrungen stehen auch die individuellen Lösungswege im Mittelpunk der Analyse.
Die Fähigkeit, negative und belastende Ereignisse in Worte zu fassen und sich mit den damit verbundenen Emotionen und Gedanken auseinanderzusetzen, ist eine wichtige Entwicklungsaufgabe des Kindesalters, die entscheidend von den Eltern geprägt wird (Nelson & Fivush, 2004). Mit Hilfe von Emotionsworten, mentalen Verben (kognitiv, perzeptiv und volitional) und globalen Evaluationen, zusammengefasst unter dem Begriff internal state language (ISL), kann das innere Befinden während eines Ereignisses ausgedrückt werden. Neben der Verwendung von ISL wird auch die Entwicklung der Emotionsregulation im Kindesalter insbesondere durch die Eltern geprägt (Morris, Silk, Steinberg, Myers & Robinson, 2007). Während sowohl die Verwendung von ISL als auch die die mütterliche Unterstützung bei der Emotionsregulation im Kindesalter bislang vielfach untersucht wurde, fehlen mitunter Studien im Jugendalter. Dabei ist diese Entwicklungsphase von besonderer Bedeutung, da hier u.a. kognitive sowie Emotionsregulationsfähigkeiten ausreifen, ebenso wie die Geschlechtsidentität (z.B. Hill & Lynch, 1983; Powers & Casey, 2015).
Die vorliegende kumulative Dissertation beschäftigte sich daher zum einen mit der Frage, ob das Alter und Geschlecht der Jugendlichen einen Einfluss darauf haben, wie sie und ihre Mütter von emotionalen Erlebnissen erzählen. Zum anderen wurde untersucht, wie Mütter ihre jugendlichen Kinder bei der Verarbeitung dieser Erlebnisse unterstützen. Zur Beantwortung dieser Frage wurden 60 Mutter-Kind Paare im Jugendalter von 12, 15 und 18 Jahren (gleichverteilt über Geschlecht und Alter) gebeten, sowohl allein als auch gemeinsam von drei emotionalen Ereignissen (Traurigkeit, Ärger, Glück) zu erzählen.
Das erste Manuskript untersuchte die Verwendung von ISL in allein erzählten Emotionserzählungen der Jugendlichen und konnte zeigen, dass ältere Jugendliche weniger Emotionsworte und mehr mentale Verben verwenden als jüngere. Während die selbstempfundene Emotionsintensität über alle Altersgruppen hinweg gleich blieb, wirkten Trauer- und Ärgererzählungen von älteren Jugendlichen auf unabhängige Beurteiler emotionaler als von jüngeren. Die Verwendung von ISL korrelierte nicht mit der selbstempfundenen Emotionsintensität, die Verwendung von kognitiven Verben allerdings mit der von Beurteilern eingeschätzten Emotionalität. Die Ergebnisse deuten darauf hin, dass im Verlauf des Jugendalters zunehmend kognitive Verben die Aufgabe übernehmen, Emotionalität zu vermitteln.
Das zweite Manuskript untersuchte die Verwendung von ISL in allein erzählten Emotionserzählungen der Jugendlichen sowie in gemeinsamen Mutter-Kind Erzählungen. Entgegen der Erwartung verwendeten Mütter Emotionsworte und globale Evaluationen gleich häufig mit Töchtern und Söhnen, jedoch mehr mentale Verben mit Jungen als mit Mädchen. Zudem benannten sie Traurigkeit gleich häufig über beide Geschlechter, Ärger aber häufiger mit Töchtern als mit Söhnen. Ebenfalls entgegen der Erwartung verwendeten weibliche und männliche Jugendliche Emotionsworte und mentale Verben gleich häufig. Lediglich globale Evaluationen wurden von Mädchen häufiger verwendet als von Jungen, jedoch nur in den allein erzählten Emotionserzählungen. Traurigkeit und Ärger wurden von beiden Geschlechtern gleich häufig benannt. Die Ergebnisse deuten an, dass sich die Geschlechtsunterschiede des Kindesalters im Jugendalter aufzulösen scheinen.
Das dritte Manuskript untersuchte, wie Mütter ihre jugendlichen Kinder bei der narrativen Emotionsregulation unterstützen. Anhand der Trauererzählung einer 12- und eines 18-Jährigen konnte exemplarisch gezeigt werden, dass Mütter die narrative Emotionsregulation durch die Identifizierung und Rechtfertigung von Emotionen, als auch durch die Neubewertung der Ereignisse unterstützen. Die Ergebnisse verdeutlichen, dass Mütter auch im Jugendalter einen wichtigen Beitrag zur Emotionsregulation ihrer Kinder leisten.
Insgesamt tragen die Ergebnisse wesentlich zum Verständnis dessen bei, wie Jugendliche emotionale Erlebnisse sprachlich verarbeiten und wie Mütter sie bei der Verarbeitung dieser Erlebnisse unterstützen.
Nukleäre Rezeptoren sind ligandenaktivierte Transkriptionsfaktoren, die das pharmazeutische Interesse als Zielstrukturen für antientzündliche Wirkstoffe und andere Indikationen erwecken. Entzündungen werden durch Noxen physikalischer, chemischer oder mikrobiologischer Art hervorgerufen. Dabei reagiert das geschädigte Gewebe mit zahlreichen Vorgängen, die vaskuläre und zelluläre Reaktionen mit Immunantworten verknüpfen und nach der Wiederherstellung des ursprünglichen Zustands streben. Bei andauernder Wirkung können Entzündungen jedoch in einen schädlichen Prozess umschlagen, sodass in solchen Fällen eine therapeutische Intervention Notwendigkeit erlangt. Ziel dieser Arbeit war es deshalb, neue Liganden nukleärer Rezeptoren als Kandidaten für antientzündliche Wirkstoffe zu identifizieren.
Leber X Rezeptoren (LXRs) sind Zielstrukturen für entzündliche und neurodegenerative Erkrankungen mit antiphlogistischem Potenzial. Zur Identifikation neuer LXR-Liganden wurde eine Datenbank mit zugelassenen Wirkstoffen mithilfe einer selbstorganisierenden Karte (SOM) auf Interaktion mit LXR gescreent. Die Retinoid X Rezeptor (RXR)-Agonisten Alitretinoin (37) und Bexaroten (38) konnten in der anschließenden in vitro Charakterisierung als potente duale LXRalpha/LXRbeta-Partialagonisten mit moderater Aktivierungseffizienz bestätigt werden. Während 37 und 38 synthetische LXR-Vollagonisten partiell antagonisierten, führten sie mit dem endogenen Partialagonisten 22(R)-Hydroxycholesterol (4) zur additiven Aktivierung von LXR. Die Charakterisierung von Alitretinoin (37) und Bexaroten (38) als duale LXR/RXR-Agonisten liefert nicht nur eine weitere Erklärung für in klinischen Studien beobachtete Nebenwirkungen, sondern könnte auch den Startpunkt zur Entwicklung neuer antientzündlicher LXR- und dualer LXR/RXR-Liganden bieten.
Der Peroxisomen Proliferator-aktivierte Rezeptor (PPAR) gamma ist ein nukleärer Rezeptor, der neben der Steigerung der Insulinsensitivität auch antientzündliche Effekte aufweist. Auf Grundlage seiner Y-förmigen und fettsäuremimetischen Struktur konnte das Urikosurikum Lesinurad (47) als PPARgamma-Partialagonist in vitro charakterisiert werden. Im Gegensatz zu PPARgamma-Vollagonisten wie Pioglitazon (31) oder Rosiglitazon (32) induzierte 47 nicht die Differenzierung muriner 3T3-L1 Zellen in reife Adipozyten, aber erhöhte in der humanen Leberzellkarzinomzelllinie HepG2 die Expression von Genen, welche die Insulinsensitivität und den Fettsäureabbau steigern könnten. Folglich erwies sich Lesinurad (47), das bei der Pharmakotherapie von Gicht Anwendung findet, als selektiver PPARgamma-Modulator (sPPARgammaM) ohne adipogene Nebenwirkungen. Insbesondere Patienten mit Komorbiditäten wie Diabetes mellitus Typ 2 oder anderen Erkrankungen des metabolischen Syndroms könnten von einer Behandlung mit 47 profitieren. Inwiefern PPARgamma an der Auflösung von Entzündungen bei Gicht beteiligt ist, bleibt in zukünftigen Studien zu klären.
Synthetische RXR-Agonisten haben ein vielversprechendes Potenzial zur Behandlung entzündlicher neurodegenerativer Erkrankungen, das jedoch von nachteiligen Eigenschaften dieser Rexinoide beeinträchtigt wird. Durch ein pharmakophorbasiertes Screening einer fokussierten Substanzbibliothek aus Fettsäuremimetika konnte ein fortschrittliches RXR-Ligandgerüst identifiziert werden. Eine geeignete Synthesestrategie wurde etabliert und die Leitstrukturen durch systematisches Studium der Struktur-Wirkungsbeziehung (SAR) optimiert. In vitro Experimente wie Reportergenassays und die Quantifizierung der Zielgenexpression bestätigten die RXR-partialagonistische Aktivität der dabei entwickelten nanomolaren Verbindung 89. Mit seiner hohen Selektivität, gesteigerten wässrigen Löslichkeit sowie reduzierter Lipophilie und Toxizität könnte 89 die Probleme bisheriger synthetischer RXR-Agonisten überwinden. Seine Präferenz von RXRgamma hinsichtlich der Aktivierungseffizienz könnte richtungsweisend für die Entwicklung subtypselektiver Liganden sein.
Die nichtalkoholische Steatohepatitis (NASH) ist eine Leberentzündung, die aus einer Steatose hervorgehen kann und deren multifaktorielle Natur eine hohe therapeutische Effizienz erfordert. Diese könnte durch duale Modulation der nukleären Rezeptoren Farnesoid X Rezeptor (FXR) und PPARdelta mit antientzündlichen Eigenschaften und unterschiedlichem Wirkprinzip erreicht werden. Zur Validierung dieses Ansatzes mit synergistischem Potenzial sollten duale PPARdelta/FXR-Agonisten ausgehend von einer in früheren Studien des Arbeitskreises identifizierten Leitstruktur mit moderater Potenz entwickelt werden. Dazu wurde ein fünfstufiges Verfahren zur Synthese von Derivaten der Leitstruktur erarbeitet und die Derivate hinsichtlich ihrer Aktivität auf den Zielstrukturen in vitro evaluiert. In systematischen SAR-Studien wurden dabei Strukturmotive charakterisiert, welche die Wirksamkeit und Maximalaktivierung auf PPARdelta und FXR steigerten. Darüber hinaus konnten Modifikationen identifiziert werden, welche eine Selektivität über PPARalpha und PPARgamma gewährten. Die Kombination dieser vorteilhaften Gruppen und Substituenten könnte neue Wirkstoffkandidaten zur Behandlung von NASH hervorbringen.
Insgesamt wurden in dieser Arbeit zahlreiche Wirkstoffe und Wirkstoffkandidaten erfolgreich als Liganden nukleärer Rezeptoren mit antientzündlichem Potenzial identifiziert. Alitretinoin (37) und Bexaroten (38) können als Leitstruktur zur Entwicklung neuer selektiver LXR- oder dualer LXR/RXR-Agonisten dienen. Die PPARgamma-partialagonistische Aktivität von Lesinurad (47) könnte einen Fortschritt in der Therapie von Gicht mit metabolischen Begleiterkrankungen bewirken. Zudem könnten im Zuge dieser Arbeit synthetisierte Serien von RXR- und dualen PPARdelta/FXR-Partialagonisten neue Therapieoptionen bei neurodegenerativen Erkrankungen oder NASH ermöglichen.
In der vorliegenden Arbeit konnte die Entwicklung und Evaluierung einer neuen Apparatur zur Untersuchung der Freisetzungseigenschaften von kolloidalen Arzneiträgern erfolgreich umgesetzt werden. Verschiedene Prototypen und Versionen des Dispersion Releasers konnten entwickelt und mit Hilfe der Werkstatt des Fachbereiches 14 umgesetzt werden. Dabei ermöglicht die letzte Optimierung (Version 3) den Einsatz beider relevanter Dialysemembranen. Sowohl regenerierte Cellulose als auch Celluloseacetat konnten zur Freisetzungsuntersuchung eingesetzt werden. Vorteilhaft ist diese Optionalität vor allem, da auf diese Weise Partikelsysteme und Wirkstoffe mit unterschiedlichen physiko-chemischen Eigenschaften in der gleichen Apparatur auf das Freigabeverhalten untersucht werden können. Darüber hinaus hat der Dispersion Releaser das Potential, sich im Bereich der Freisetzungsuntersuchungen kolloidaler Arzneiträger über den Arbeitskreis von Dr. Wacker hinaus zu einem bevorzugten Testsystem zu entwickeln. In diesem speziellen Gebiet der Freisetzungsuntersuchung von kolloidalen Arzneiträgern wie Nanopartikeln oder Liposomen existiert bisher keine Apparatur, die als sogenannter Gold-Standard angesehen werden kann. Untersuchungen mittels der Durchflusszelle, dem A4D oder Sample & Separate Methoden im Labormaßstab unterliegen kaum standardisierbaren Bedingungen und diversen Limitierungen. Der Dispersion Releaser ist einfach zu handhaben und mit wenig Aufwand in die Freisetzungsapparatur 2 nach Ph. Eur. einzubauen. Zu den zahlreichen Vorteilen gehören außerdem die Kontrolle der Rührgeschwindigkeit sowie der Temperatur und der mögliche Probenzug in beiden Kompartimenten der Dialysezelle. Würden mehr Freisetzungsuntersuchungen von kolloidalen Arzneiträgern mit der gleichen, im besten Falle standardisierten, Apparatur durchgeführt, so würde dies die Vergleichbarkeit der Resultate erheblich verbessern.
Die präparierten Modellarzneiformen der beiden Arzneistoffe mTHPC und Flurbiprofen konnten die Funktionalität des Dispersion Releasers mittels der erhobenen Freisetzungsprofile belegen. Es konnten sowohl schnell als auch langsamer freisetzende kolloidale Formulierungen produziert und identifiziert werden. Als Standard-Freisetzungsmedium diente ein 10 mM Phosphatpuffer versetzt mit Natrium- und Kaliumchlorid bei pH 7,4. Dieser im Hinblick auf pH-Wert, Osmolalität und Pufferkapazität dem Blut angepasste Puffer lieferte reproduzierbare Freisetzungsprofile für alle untersuchten Partikelsysteme. Der Zusatz von Plasmaproteinen erfolge durch Zufügen von FBS zu diesem Standardpuffersystem oder durch Verwendung des im Ph. Eur. gelisteten Phosphatpuffers pH 7,2 mit Rinderalbumin. Der Effekt der im Plasma natürlicherweise enthaltenen Komponenten, insbesondere der Plasmaproteine, auf das Freisetzungsprofil zeigt in dieser Arbeit, dass -wie erwartet- die Freisetzungseigenschaften in komplexen, bzw. physiologischen Medien deutlich von denen in einfachen Puffersystemen abweichen können. Die Anwesenheit von Plasmaproteinen führte zu einer veränderten Freisetzungsrate, sowohl im Falle von Flurbiprofen als auch im Falle von mTHPC. Für mTHPC konnte außerdem der Zusatz von lösungsvermittelndem Methyl-ß-cyclodextrin zum Freisetzungsmedium etabliert werden. Gegenüber üblicherweise eingesetzten Tensiden verändert dieses cyclische Zuckermolekül die Oberflächenspannung des Mediums und damit die Benetzbarkeit der Partikel nicht.
Die mittels Dispersion Releaser und Dialysesack erhobenen Freisetzungsdaten des Wirkstoffes Flurbiprofen wurden in Zusammenarbeit mit Frau Dr. Li Kirsamer einer mathematischen Auswertung unterzogen. Auf diese Weise konnte zunächst das Freisetzungsprofil beider Kompartimente der Dialyse dargestellt werden, wodurch weitere Erkenntnisse der Qualität des kolloidalen Trägers und seiner Eignung für den jeweiligen Arzneistoff abgeleitet werden können. Die Auswertung an Hand dieses Modells berücksichtigt zwar die Fraktion des freigesetzten Wirkstoffes in beiden Kompartimenten, ermittelt jedoch keine theoretische Freisetzungsrate welche ohne Membrankinetik messbar wäre. Dies wäre in der Auswertung von Freisetzungsdaten ebenfalls von Interesse, konnte jedoch im Rahmen dieser Arbeit nicht näher untersucht werden. Berechnungen wie diese können in weiterführenden Arbeiten möglicherweise dazu dienen, in vitro Freisetzungsdaten mit Plasmaprofilen zu korrelieren. Mit dem Erwerb der Rechte an dem Dispersion Releaser durch die Firma Pharma Test Apparatebau AG im Jahr 2016 wurde der Weg für eine mögliche breite und auch kommerzielle Nutzung der neuartigen Apparatur eingeleitet. Diese Transaktion und die andauernde Kooperation zwischen Pharmatest und dem Arbeitskreis von Herrn Prof. Dr. Wacker soll die erfolgreiche Beantwortung der Fragestellungen innerhalb der vorliegenden Arbeit mit dem Titel „Entwicklung einer Apparatur zur in vitro Testung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern“ hervorheben.
Auf den Einsatz von Tieren im Rahmen der (Umwelt-)Risikobewertung von Stoffen kann nach wie vor nicht verzichtet werden. Dabei führen die Überprüfungen einer zunehmenden Anzahl neu entwickelter Stoffe, aber auch die gestiegenen Anforderungen der Gesetzgebungen zu einem hohen Verbrauch von Versuchstieren. Diese Untersuchungen sind wichtig, da viele der in Gebrauch befindlichen und in allen Bereichen genutzten Chemikalien potentiell endokrin wirksam sind, auf unterschiedlichen Wegen in die Umwelt gelangen und sich potentiell negativ auf die Gesundheit von Mensch und Tier auswirken können.
Bei den bisher verwendeten Methoden werden vor allem juvenile oder adulte Tiere, aber auch Tiere zur Untersuchung des kompletten Lebenszyklus über eine oder mehrere Generationen für die Beurteilung von Substanzen eingesetzt. Dabei ist bekannt, dass die Entstehung reproduktiver Störungen in der Embryonalphase der jeweiligen Individuen auftritt. Um den Tierverbrauch zu reduzieren, werden teilweise In-vitro-Testsysteme angewendet. Es zeigt sich aber, dass diese Tests lediglich einen bestimmten Zelltyp in einem bestimmten Entwicklungsstadium abbilden können, was die Aussagekraft über die tatsächliche Wirkung auf ein komplexes Gewebe und dessen Entwicklung, erst Recht für den kompletten Organismus, stark einschränkt. Die Aussagekraft dieser Methoden ist daher in bestimmten eingeschränkten Grenzen zu sehen. In der vorliegenden Arbeit wird eine alternative Ersatzmethode vorgestellt mit dem Ziel einer stärkeren Aussagekraft bei toxikologisch und ökotoxikologisch relevanten Endpunkten. Im Fokus stehen hierbei die Effekte von androgenen und estrogenen Substanzen auf die Geschlechtsentwicklung von Hühnerembryonen (Gallus gallus domesticus) auf Ebene der Expression der mRNA, vereint mit Effekten auf Ebene der Organhistologie und – morphologie, verglichen mit den Normalzuständen unbehandelter Individuen. Die neu entwickelte Methode zur Beurteilung solcher Substanzen kann im Rahmen der human- und umwelttoxikologischen Risikobewertung von Stoffen eingesetzt werden und ist ein geeignetes Werkzeug, um die notwendigen Untersuchungen mit der gefordert hohen Beurteilungsqualität durchzuführen. Gleichzeitig kann mit dieser Tierversuchsersatzmethode bei hoher Aussagekraft auch der Verbrauch an weiter und höher entwickelten Versuchstieren verringert werden, was auch einem gesellschaftlich-ethischen Bedürfnis gerecht wird.
Die Superfamilie der nukleären Rezeptoren umfasst 48 ligandenabhänige Transkriptionsfaktoren, die durch Veränderungen in der Genexpression unterschiedlichste (patho-)physiologische Vorgänge wie Metabolismus, Entzündungen und Zelldifferenzierung beeinflussen.
Für die Vertreter der Retinoid X Rezeptoren (RXRs) und Peroxisomen Proliferator-aktivierten Rezeptoren (PPARs) wurden in den letzten Jahren vielversprechende Effekte auf neurodegenerative Erkrankungen berichtet. Beide Rezeptorklassen beeinflussen u.a. Bildung, Transport und Abbau des neurotoxischen Amyloid-β, das als eine der Ursachen für die Entstehung einer Alzheimer Demenz (AD) vermutet wird. Außerdem gibt es Hinweise darauf, dass durch gezielte Modulation der RXRs (besonders RXRγ) eine Remyelinisierung auto-immun demyelinisierter Neurone und damit eine regenerative Therapie für die Multiple Sklerose (MS) möglich sein könnte. Die aktuell zur Verfügung stehenden Liganden der RXRs besitzen unzureichende Subtypenselektivität und meist unvorteilhafte physikochemische Eigenschaften, die der weiteren Erforschung im Wege stehen. Um diese Hindernisse zu überwinden, sollten im Rahmen dieser Arbeit neuartige RXR-Agonisten synthetisiert und umfassend charakterisiert werden.
Ein kürzlich publizierter RXR-Agonist besitzt eine ungewöhnlich lineare Biphenylgrundstruktur und offenbart ein attraktives Aktivitätsprofil: Während alle drei RXR-Subtypen mit einem ähnlichen EC50-Wert (RXRα/β/γ = 12/12/14 µM) adressiert werden, führt die Bindung an RXRα nur zu einer minimalen Aktivierung (max. 5-fache Aktivierung im Vergleich zur Grundaktivität), während RXRβ und γ deutlich stärker aktiviert werden (60-70-fache Aktivierung). Da für diesen Chemotyp bislang noch keine systematischen Studien vorlagen, wurden seine Struktur-Wirkungs-Beziehungen (SAR) erforscht. Durch Synthese und in vitro Charakterisierung von 24 Derivaten konnten sowohl selektivitäts- als auch potenzfördernde Strukturmerkmale identifiziert werden, die sich auch kombinieren ließen. Es wurden ein RXRβ-selektives Derivat, mehrere RXRα/β-präferierende Analoga und ein potentes Derivat mit annähernd 100-fach gesteigerter Potenz ((EC50(RXRα/β/γ) = 0,08/0,15/0,22 µM) erhalten. Im Zuge der Charakterisierung wurden außerdem strukturelle Variationen identifiziert, die eine Umgehung des LXR/RXR-Heterodimers ermöglichen könnten. Zusätzlich gelang die Kristallisation der Ligandbindedomäne (LBD) von RXRα im Komplex mit dem potentesten Vertreter der Serie und offenbarte Potential für weitere Optimierungen, u.a. der Möglichkeit eine kovalente Bindung mit Cys432 zu etablieren und damit eine weitere Potenzsteigerung zu erreichen.
Neben der mangelnden Subtypenpräferenz behindern auch die ungünstigen physikochemischen Eigenschaften von RXR-Liganden die weitere Entwicklung von RXR-basierten Therapieoptionen. Deshalb sollte eine neue Leitstruktur mit überlegenen physikochemischen Eigenschaften identifiziert und durch systematische SAR-Untersuchungen weiterentwickelt werden. Für den experimentellen Wirkstoff Wy14,643, einem dualen Agonisten an PPARα und γ, wurden im Laufe der letzten vier Jahrzehnte wiederholt Effekte patentiert, die sich mit dem bislang bekannten Aktivitätsprofil nicht erklären ließen. Er zeigte u.a. in einem Tiermodell der MS einen immunmodulierenden Effekt und reduzierte in vitro die Bildung von Amyloid-β.Im Rahmen dieser Arbeit konnte Wy14,643 als potenter RXR-Agonist (EC50 (PPARα/γ/δ) = 36/54/- µM¸ EC50(RXRα/β/γ) = 9,1/13/31 µM) mit überlegenen physikochemischen Eigenschaften (z.B. Löslichkeit in Wasser = 48,6 mg/L) identifiziert und dadurch dessen Wirkungen erklärt werden.
Wy14,643 wurde als Startpunkt einer systematischen Untersuchung der Ligand-Rezeptor-Interaktionen sowohl an den PPARs und den RXRs ausgewählt. Dabei wurden ein potenter selektiver PPAR-Agonist und ein potenter und ausgeglichener panRXR/panPPAR-Agonist erhalten. Der panRXR/panPPAR-Agonist konnte im Komplex mit der LBD von PPARγ kristallisiert werden, wo der Ligand gleich doppelt gebunden vorliegt. Eines der Moleküle bindet in einer alternativen Bindungstasche. Diese Erkenntnis könnte die Grundlage für die Entwicklung einer neuen Klasse von PPARγ-Modulatoren legen.
Durch Kombination des erlangten SAR-Wissens wurde ein selektiver RXR-Agonist (EC50 (PPARα/γ/δ) = -/-/- µM¸ EC50(RXRα/β/γ) = 0,09/0,14/0,36 µM) mit annähernd 100-fach gesteigerter Potenz synthetisiert, der die günstigen physikochemischen Eigenschaften der Leitstruktur erhalten konnte (Löslichkeit in Wasser = 14,3 mg/L). Mit diesem Profil ist es gelungen einen RXR-Agonisten zu kreieren, der dem bisherigen Goldstandard Bexaroten bei vergleichbarer Potenz in physikochemischen Eigenschaften überlegen ist.
Die Kristallstruktur des RXR-selektiven Derivats im Komplex mit der LBD von RXRα zeigte einen orthosterischen Bindemodus und legte weitere Optimierungen nahe: So gibt es sowohl ungenutzten Raum, der zukünftig durch strukturbasierte Substitutionen adressiert werden könnte, als auch die Möglichkeit eine kovalente Bindung zum Rezeptor (Cys432) zu initiieren. Durch diese Arbeit konnten nicht nur eine Reihe von potenten RXR-Liganden identifiziert werden, durch die Entwicklung eines Sets aus PPAR-selektiven, dual PPAR/RXR-aktiven und RXR-selektiven Derivaten gleichen Chemotyps, entstand auch ein nützliches pharmakologisches Werkzeug zur weiteren Entschlüsselung des Zusammenspiels dieser Rezeptoren.
Die systematische Entwicklung einer Leitstruktur, wie sie in den vorangegangenen Projekten praktiziert wurde, kann je nach deren Komplexität eine kostenintensive und synthetisch anspruchsvolle Aufgabe darstellen. Im Rahmen dieser Arbeit wurde eine computergestützte Optimierung einer Leitstruktur als Teil einer selektiven Optimierung von Nebenaktivitäten (SOSA) etabliert, um den präparativen Aufwand der Strukturoptimierung zu reduzieren. Als Modellsubstanz wurde das Fettsäuremimetikum Cinalukast ausgewählt, das einen potenten Cysteinylleukotrienrezeptor 1 (CysLT1R)-Antagonisten darstellt, für den eine schwache Aktivität an PPARα entdeckt wurde. Ein automatisierter Arbeitsablauf testete eine virtuelle Bibliothek von annähernd 8000 Cinalukastanaloga auf ihre PPARα-Aktivität und die Derivate mit der besten vorhergesagten PPARα-Aktivität wurden durch maschinelles Lernen nach ihrem CysLT1R-Antagonismus klassifiziert. Die Synthese und Charakterisierung eines virtuell bevorzugten Derivats zeigte selektiven PPARα-Agonismus und konnte so den computergestützten Arbeitsablauf als wertvolles Instrument zur Optimierung von Fettsäuremimetika bestätigten.
Die vorliegende Arbeit hat bedeutende Fortschritte bei der Entwicklung von zwei neuen Chemotypen als RXR-Liganden erreicht. Die Klasse der Biphenyl-Analoga kann als Ausgangspunkt für eine weitere Entwicklung von subtypenselektiven RXR-Agonisten dienen und könnte gleichzeitig die gezielte Umgehung einzelner Heterodimere ermöglichen. Das Set aus drei Derivaten von Wy14,643 mit identischem Chemotyp, aber drastisch unterschiedlichen Aktivitätsprofilen an den PPARs und RXRs ermöglicht eine intensive pharmakologische Untersuchung der beiden Rezeptorfamilien und deren Zusammenspiel. Außerdem entstand aus dieser Klasse einer der zurzeit fortschrittlichsten RXR-Agonisten. Zukünftig kann außerdem der im Zuge der Arbeit etablierte computergestützte Arbeitsablauf die Optimierung von Fettsäuremimetika deutlich beschleunigen.
Entwicklung und Inbetriebnahme zweier supraleitender 217 MHz CH-Strukturen für das HELIAC-Projekt
(2019)
Im Rahmen der hier vorgestellten Arbeit wurden zwei baugleiche CH-Strukturen für das im Bau befindliche HELIAC-Projekt (HELmholtz LInear ACcelerator) entwickelt und während der Produktion bis hin zu den finalen Kalttests bei 4.2 K begleitet. Zusammen mit der CH-Struktur des Demonstrator-Projektes ermöglichen sie die vollständige Inbetriebnahme und den ersten Strahltest des ersten Kryomoduls des HELIAC's, welcher aus vier Kryomodulen mit insgesamt 12 CH-Strukturen besteht. Im Vergleich zu bisherigen CH-Strukturen wurde das Design der Kavitäten im Rahmen dieser Dissertation grundlegend überarbeitet und optimiert. Durch die Entfernung der Girder und die konisch geformten Endkappen konnte die Stabilität der neuen CH-Strukturen deutlich erhöht werden, sodass die Drucksensitivität im Vergleich zur ersten CH-Kavität des Demonstrator-Projektes um ca. 80% reduziert werden konnte. Durch die nach außen gezogenen Lamellen der dynamischen Tuner konnte die mechanische Spannung sowie die benötigte Anzahl an Lamellen und damit das Risiko für das Auftreten von Multipacting reduziert werden. Das verringerte Risiko für Multipacting durch die entsprechenden Optimierungen der Kavitäten konnte durch die dauerhafte Überwindung aller Multipacting-Barrieren in den späteren Messungen verifiziert werden. Die Optimierung beider Kavitäten erfolgte dabei mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench.
Beide Kavitäten wurden von der Firma Research Instruments (RI) gefertigt und während der gesamten Konstruktion durch diverse Zwischenmessungen überwacht. Nach jedem einzelnen Produktionsschritt wurden alle Einflüsse auf die Resonanzfrequenz so präzise ermittelt, dass die Zielfrequenz bei 4.2 K auf mehr als 1‰ genau erreicht werden konnte. Sowohl während der Zwischenmessungen als auch während den finalen Messungen bei 4.2 K wurden automatisierte Aufzeichnungsroutinen verwendet, welche eine sekundengenaue Auslese der Messdaten und damit eine hohe Messgenauigkeit ermöglichten. Im Hinblick auf die Komplexität der CH-Strukturen sind die geringen Abweichungen von der Zielfrequenz der direkte Beweis dafür, wie erfolgreich und präzise die Auswertungen und daraus folgenden Abschätzungen der einzelnen Zwischenmessungen waren. Insgesamt konnten bis auf die mechanischen Eigenmoden alle Ergebnisse der Simulationen durch entsprechende Messungen in guter Näherung verifiziert werden. In jeder Kavität wurden zwei dynamische Tuner verbaut, welche statische und dynamische Frequenzabweichungen im späteren Betrieb ausgleichen können. Die dynamischen Tuner wurden hinsichtlich ihrer mechanischen Stabilität und der erzeugbaren Frequenzänderung sowie ihrer mechanischen Eigenfrequenzen ausführlich mit Hilfe der Simulationsprogramme CST Studio Suite und Ansys Workbench untersucht und optimiert. Um die Ergebnisse der Simulationen zu überprüfen wurden ein eigens dafür entworfener und in der Werkstatt des Instituts für Angewandte Physik gefertigter Messaufbau verwendet, welcher es ermöglichte alle entscheidenden Eigenschaften der dynamischen Tuner präzise zu vermessen. Insgesamt stellen die ausführlichen Messungen mit Hilfe des entworfenen Aufbaus die bisher umfassendsten Messungen dynamischer Balgtuner innerhalb supraleitender CH-Strukturen dar und zeigen, mit welchen Abweichungen zwischen Simulationen und Messungen bei zukünftigen Kavitäten zu rechnen ist. Auch die Feldverteilung entlang der Strahlachse wurde während der Produktion der Kavitäten mit Hilfe der Störkörpermessmethode überprüft. Die dadurch ermittelten Werte stimmten mit einer maximalen Diskrepanz von 9% sehr gut mit den Simulationen überein.
Um eine möglichst gute Oberflächenqualität zu garantieren wurden an der Innenfläche beider Strukturen mindestens 200µm mit einer Mischung aus Fluss-, Salpeter und Phosphorsäure in mehreren Schritten abgetragen. Durch das Aufteilen der Behandlung in einzelne Schritte konnte der Einfluss der Oberflächenbehandlung auf die Resonanzfrequenz besser abgeschätzt und vorausgesehen werden. Dies führte, zusammen mit den Messungen zur Bestimmung der Drucksensitivität und der thermischen Kontraktion der Kavität beim Abkühlen, zu der hohen Übereinstimmung der gemessenen finalen Resonanzfrequenz mit der Zielfrequenz.
Die abschließenden Kalttests der beiden Kavitäten, ohne Heliummantel, wurden am Institut für Angewandte Physik der Johann Wolfgang Goethe Universität in einem vertikalen Bad-Kryostaten durchgeführt. Die erste CH-Struktur konnte erfolgreich bis zu einem maximalen Feldgradienten von 9.2 MV/m getestet werden, was einer effektiven Spannung von 3.37 MV entspricht. Die unbelastete Güte fiel dabei von anfangs 1.08 ∙ 109 auf 2.6 ∙ 108 ab. Die Vorgaben des HELIAC-Projektes liegen bei einem Beschleunigungsgradienten von 5.5 MV/m mit einer unbelasteten Güte von mindestens 3 ∙ 108. Diese Werte wurden von der ersten Kavität deutlich übertroffen, sodass sie für den Betrieb innerhalb des ersten Kryomoduls uneingeschränkt verwendet werden kann.
Bei der zweiten Kavität trat beim Abkühlen auf 4.2 K ein Vakuumleck auf, welches unter Raumtemperatur nicht detektierbar war. Aufgrund der schlechten Vakuumbedingungen innerhalb der Kavität konnten somit keine Messungen hinsichtlich der Leistungsfähigkeit durchgeführt werden, solange das Kaltleck vorhanden war. Ein erneuter Kalttest der Kavität nach Beseitigung des Lecks konnte zeitlich nicht mehr im Rahmen dieser Arbeit durchgeführt werden und ist aus diesem Grund Gegenstand nachfolgender Untersuchungen.
Insgesamt stellen die Entwicklungen, Untersuchungen und Messungen im Rahmen der hier vorgestellten Dissertation einen entscheidenden Schritt zur Inbetriebnahme des ersten Kryomoduls des HELIAC's sowie der Entwicklung weiterer CH-Kavitäten dar. Das überarbeitete Design der CH-Strukturen hat sich als erfolgreich erwiesen, weswegen es als Ausgangspunkt für die Entwicklung aller nachfolgenden CH-Strukturen des HELIAC, bis hin zur Fertigstellung des kompletten Beschleunigers, verwendet wird.
Als Plasmafenster wird ein Aufbau bezeichnet, welcher zwei Bereiche unterschiedlicher Drücke voneinander trennt, Teilchenstrahlen jedoch nahezu verlustfrei passieren lässt.
Diese Anwendung einer kaskadierten Bogenentladung wurde von A. Hershcovitch vorgeschlagen.
Im Rahmen dieser Arbeit wurde ein solches Plasmafenster mit Kanaldurchmessern von 3.3 mm und 5.0 mm aufgebaut sowie die erreichbaren Druckunterschiede untersucht.
Auf der Bestimmung des Einflusses der Plasmaparametern und deren Abhängigkeit von äußeren Parametern auf die erreichbare Trennung der Druckbereiche liegt der Schwerpunkt dieser Arbeit.
Ein ausgeklügeltes optisches System ermöglicht die simultane Aufnahme mehrerer Spektren entlang der Entladungsachse, welche die gleichzeitige Bestimmung der Elektronendichte und -temperatur ermöglichen.
Für die Analyse der Plamaparameter aus über 6700 Spektren wird eine selbst entwickelte Software genutzt.
Die gemessenen Elektronendichte reicht von 8e14 cm^-3 bis zu 4.2e16 cm^-3.
Sie skaliert sowohl mit der Entladungsstromstärke als auch dem Teilchenfluss.
Für die Elektronentemperatur stellen sich Werte zwischen 1 eV und 1.3 eV ein, sie variiert nur leicht mit der Stromstärke und dem Teilchenfluss.
Wie später gezeigt wird, stimmen die hier präsentierten Daten gut mit Ergebnissen aus Simulationen und Experimenten anderer Arbeitsgruppen überein.
Als Betriebsgas wurde eine 98%Ar-2%H2 Mixtur genutzt, da die Stark-Verbreiterung der H-beta-Linie sowie die physikalischen Eigenschaften von Argon gut beschrieben sind und somit eine akkurate Elektronendichte- und -temperaturbestimmung ermöglichen.
Während die Drücke auf der Niederdruckseite einigen mbar entsprechen, werden auf der Hochdruckseite Drücke bis zu 750 mbar bei Teilchenflüsse zwischen 4.5e20 s^-1 und 18e20 s^-1 sowie Stromstärken von 45 A bis 60 A erreicht.
Die erzielten Druckverhältnisse entsprechen Werten zwischen 40 und 150, was eine Steigerung um einen Faktor von bis zu 12 gegenüber dem Druckverhältnis einer einfachen differentiellen Pumpstufe entspricht.
Zusätzlich zur Trennung der Druckbereiche kann am vorgestellten Experiment die Starkverbreiterung von Emissionslinien untersucht werden.
Vorteilhaft gegenüber anderen Aufbauten ist hier die Möglichkeit, zeitgleich Spektren unterschiedlicher Elektronendichten aufzunehmen.
Die entwickelte Software ist in der Lage, akkurate Halbwertsbreiten zu bestimmen und daher für eine solche Anwendung gut geeignet.
Alleinstellungsmerkmale dieses Aufbaus sind unter anderem die angesprochene Möglichkeit der simultanen Bestimmung von Plasmaparamertern und Linienverbreiterungen sowie der Verzicht auf Keramikisolatoren zwischen den Kühlplatten des Aufbaus.
Optische Analysen ergaben keine signifikante Schädigung der Bestandteile des Aufbaus nach einer Betriebsdauer von über 10 h; einzig die Kathodenspitzen müssen alle 5 h ausgetauscht werden.
Im Rahmen der hier vorgestellten Arbeit wurden eine Master- sowie Bachelorarbeit betreut und erfolgreich zum Abschluss gebracht.
Wie im Rahmen dieser Arbeit gezeigt, ist das entwickelte Plasmapfenster in der Lage, zwei Bereiche unterschiedlicher Drücke zu trennen und diese Trennung sicher aufrecht zu erhalten.
Die zugrundeliegenden Plasmaparameter sind erforscht und ihr Einfluss auf die Trennungseigentschaft des Plasmafensters beschrieben.
Als nächsten Schritt bietet sich die Erschließung technischer Einsatzmöglichkeiten des Plasmafensters an, so könnte dieses als Plasmastripper oder zum Schutz einer Beschleunigerstruktur vor durch Kollisionsexperimente entstandene radioaktive Isotope oder Sekundärteilchen.
Der Fokus der vorliegenden Arbeit liegt in der erfolgreichen Entwicklung von vier neuen Methoden zur Darstellung von Sulfonen und von einer neuen Methode zur Synthese von N-Aminosulfonamiden. Dabei sollen die Strukturmotive von Sulfonen und Sulfonamiden aus stabilen Startmaterialien in einer einfachen Durchführung, vorzugsweise in einer Eintopf-Synthese oder Multikomponenten-Reaktion, aufgebaut und der Reaktionsmechanismus weitestgehend experimentell aufgeklärt werden. In diesem Rahmen konnte die Lücke einer Nickel-katalysierten Darstellung von Diarylsulfonen sowohl unter thermischen als auch unter photochemischen Bedingungen gefüllt werden. Zusätzlich konnten im Bereich der SO2-Fixierung Sulfonylradikale mittels Diaryliodoniumsalzen und sichtbaren Licht erzeugt werden, die mit dem entsprechenden Quencher zum Sulfonamid oder Sulfon weiter reagieren konnten.
Zielsetzung: Ziel dieser Arbeit war es, den Einfluss des neuen, rauschoptimierten virtuell monoenergetischen Rekonstruktionsalgorithmus (VMI+) von abdominellen Dual-Energy CT (DECT) Aufnahmen bei Patienten mit gastrointestinalem Stromatumor (GIST) hinsichtlich der objektiven und subjektiven Bildqualität zu evaluieren sowie die Vorteile dessen im Vergleich zu den bislang verwendeten Algorithmen aufzuzeigen.
Material und Methoden: 45 DECT Datensätze von 21 Patienten mit GIST (12 Männer und 9 Frauen, durchschnittliches Alter: 63.4 ± 9.2 Jahre) wurden sowohl mit einem linear gemischten Algorithmus (M_0.6), mit dem traditionellen virtuell monoenergetischen Algorithmus (VMI) als auch mit dem rauschoptimierten VMI+ Algorithmus in 10 keV Intervallen von 40 bis 100 keV rekonstruiert. Zur objektiven Berechnung des Signal-zu-Rausch Verhältnisses („signal-to-noise ratio“=SNR) sowie des Kontrast-zu-Rausch Verhältnisses („contrast-to-noiseratio“=CNR) wurde die Signalabschwächung der GIST-Läsionen und abdomineller Metastasen in den drei Rekonstruktionsvarianten in Hounsfield Units (HU) gemessen. Die Beurteilung der subjektiven allgemeinen Bildqualität, der Abgrenzbarkeit der Läsionen, der Bildschärfe sowie des Bildrauschens im jeweiligen Rekonstruktionsalgorithmus wurde von drei Radiologen unter Verwendung von Likert-Skalen durchgeführt.
Ergebnisse: Die objektive Bildqualität wies die höchsten Werte in den 40 keV VMI+ Serien auf (SNR: 11.0 ± 4.7; CNR: 9.0 ± 4.1) und war somit signifikant besser als die M_0.6 Serie (SNR: 7.5 ± 2.8; CNR: 5.5 ± 2.7) und alle VMI Serien (bei allen P < 0.001). Bezüglich der subjektiven Bildqualität und der Bildschärfe wurden die 60 keV VMI+ Rekonstruktionen bevorzugt (Median: 5; P ≤ 0.008). Die subjektive Einschätzung bezüglich der Abgrenzbarkeit der GIST Läsionen erzielte die besten Werte in den 40 keV und 50 keV VMI+ Rekonstruktionen (beide Mediane: 4). Das Bildrauschen wurde in den 90 keV und 100 keV VMI und VMI+ Rekonstruktionen als am geringsten beurteilt (alle Mediane: 5).
Schlussfolgerung: Niedrigenergetische VMI+ Rekonstruktionen erhöhen signifikant das Signal-zu-Rausch Verhältnis sowie das Kontrast-zu-Rausch Verhältnis verglichen mit den traditionellen VMI Rekonstruktionen und der linear gemischten M_0.6 Bildserie und verbessern sowohl die objektive als auch die subjektive Bildqualität abdomineller DECT Aufnahmen bei Patienten mit GIST signifikant.
Ziel dieser Arbeit ist die Untersuchung des Langzeitüberleben von Patienten, die sich einer MitraClip-Implantation unterzogen haben, zu untersuchen. Da-bei wurden die beiden Ätiologien der MI gesondert betrachtet. Die Ergebnisse zeigen, dass es zwischen Patienten mit degenerativer und funktioneller Insuf-fizienz keine nennenswerten Unterschiede in Bezug auf den Langzeitverlauf gibt.
Es konnten jedoch Parameter herausgestellt werden, mit deren Hilfe man eine prognostische Aussage über das Langzeitüberleben treffen könnte. Diese Arbeit erbrachte Hinweise darauf, dass die TAPSE durchaus Einfluss auf das Langzeitüberleben bei Patienten haben kann. Aktuelle Studien bele-gen einen solchen Zusammenhang ebenfalls.
Es bleibt abzuwarten, ob sich dieses Verfahren weiterhin etablieren kann und welchen Stellenwert die katheterbasierte Cliptherapie der Mitral-klappe im Vergleich zu chirurgischen und anderweitig interventionellen Klap-pentherapieverfahren einnehmen wird.
Die Prognose eines malignen Glioms ist trotz verschiedener Therapiemöglichkeiten noch immer sehr schlecht. Zwar hat sich für die Primärsituation seit 2005 eine Standardtherapie etabliert, doch im Rezidivfall fehlt es weiterhin an einer einheitlichen Behandlung. Das Ziel dieser retrospektiven Datenerfassung war es, den prognostischen Stellenwert klinisch- pathologischer Parameter zu vergleichen und eine Konsensempfehlung zu erarbeiten. Zusätzlich wurde ein Teil dieser Daten im Rahmen einer multizentrischen retrospektiven Analyse des DKTKs zur Validierung des im Zuge dessen entwickelten prognostischen RRRSs erhoben und verwendet.
Grundlage dafür bildeten die in der internen Datenbank „Orbis“ und in archivierten Patientenakten gespeicherten Daten von Patienten, die zwischen 07/2009 und 02/2017 in der Klinik für Strahlentherapie am Universitätsklinikum Frankfurt am Main therapiert wurden. Hierbei handelte es sich um Patienten mit einem histologisch gesicherten Glioblastomen WHO Grad IV zum Zeitpunkt der ReRT. Die mediane Gesamtdosis betrug 28 Gy (20-60 Gy), die mediane Einzeldosis 3,5 Gy/Tag (1,8-4 Gy).
Es wurden 102 Patienten eingeschlossen, wobei zwei Patienten als primäre Diagnose ein niedriggradiges Gliom WHO Grad I/II, sechs ein Astrozytom WHO Grad III und 96 ein Glioblastomen WHO Grad IV aufwiesen. Das durchschnittliche Alter betrug 55 Jahre und die mittlere Zeit zwischen initialer und erneuter RT 21,07 Monate. Im Rezidivfall unterzogen sich 40 Patienten einer chirurgischen Intervention, bei welcher es sich in 32 der Fälle um eine totale und acht Mal um eine subtotale Resektion handelte. Des Weiteren erhielten 52 der Patienten eine Chemotherapie mit Temozolomid, 20 eine mit CCNU, 17 mit Avastin und fünf bzw. acht ein anderes oder kein Chemotherapeutikum.
Das mOS nach initialer Diagnosestellung eines malignen Glioms ergab 42,64 Monaten, das progressionsfreie Überleben 14,77 Monate. Das mOS nach der ReRT lag bei 11,8 Monaten und der mediane Zeitraum bis zu einem erneuten Progress betrug 4,25 Monate.
Bezüglich der Primärdiagnose konnten die initiale Histologie (p = 0,002), das Alter (p = 0,016) und der MGMT-Promotor-Status (p = 0,001) als statistisch signifikante Einflussfaktoren identifiziert werden. Demnach wiesen jüngere Patienten mit einer niedriggradigeren Histologie sowie einer Hypermethylierung des MGMT-Promotors eine bessere Prognose auf. Der KPS (p < 0,001), die Zeit zwischen erster und zweiter Bestrahlung (p = 0,003), der MGMT-Promotor-Status (p = 0,025) und das Tumorwachstum (p = 0,024) waren determinante Faktoren hinsichtlich des Outcomes nach der ReRT. Außerdem zeigte sich, dass eine Gesamtstrahlendosis von mehr als 28,90 Gy auf statistisch signifikante Art und Weise (p = 0,042) mit einem längeren OS nach erneuter RT assoziiert war, sowie eine Parietal- bzw. Temporallappenlokalisation (p = 0,009) mit einem längeren progressionsfreien Überleben. Was die Therapiemodalitäten angeht, zeigte sich keine der anderen überlegen.
Die erneute Validierung dieser Daten mit dem RRRS ergab ebenfalls ein statistisch signifikantes Ergebnis bezogen auf die durchschnittliche Überlebenszeit zwischen den einzelnen prognostischen Gruppen ab dem Zeitpunkt der ReRT.
Die Ergebnisse dieser Arbeit legen dar, dass noch immer keine optimale Therapie für Patienten mit rezidivierendem Glioblastomen existiert und weiterhin Forschungsbedarf in der Modifizierung bestehender Behandlungsoptionen sowie in der Entwicklung neuer Therapiemöglichkeiten besteht. Des Weiteren unterstreichen sie die Wichtigkeit und den Wert spezifischer Einflussfaktoren zur Prognoseabschätzung und die Notwendigkeit des Einschlusses bedeutender neuer molekularer Marker anhand der WHO- Klassifikation von 2016 für zukünftige Studien.
Die Extrauteringravidität (EUG) ist eine relativ häufige und bei zu spätem Erkennen schwerwiegende bis tödliche Anomalie der Schwangerschaft. Rund 2 % aller Schwangerschaften befinden sich extrauterin, z. B. im Eileiter, im Eierstock oder in der Bauchhöhle. Das Symptomspektrum kann vielfältig sein und reicht u. a. von Symptomfreiheit bis hin zu Schockzuständen durch innere Blutungen. Die maternale Sterblichkeit lag zu Beginn des letzten Jahrhunderts noch sehr hoch, da die Diagnose nicht oder zu spät gestellt wurde bzw. keine adäquate Therapie verfügbar war. Durch sensible Schwangerschaftstest, welche die β-Untereinheit des hCGs nachweisen, und den transvaginalen Ultraschall können heute pathologische Schwangerschaftsverläufe früh detektiert und ebenso früh interveniert werden. Je nach Fortschritt und Lokalisation der EUG stehen verschiedene Therapiemöglichkeiten zu Verfügung. Ambulant kann eine einmalige Methotrexatinjektion erfolgen. Auch chirurgische Methoden sind eine Therapieoption.
In dieser Arbeit wurden die 8.040 Publikationen, die zwischen 1900 und 2012 zum Thema EUG erschienen sind und ins Web of Science aufgenommen wurden, szientometrisch analysiert, um quantitative und qualitative Aussagen bezüglich der Publikationen und dem Forschungsverhalten treffen zu können. Quantitativ wurden u. a. die Publikationsleistung einzelner Länder, Autoren und Fachzeitschriften sowie verschiedene Kooperationen evaluiert. Die qualitative Beurteilung betrachtete neben Zitationszahlen, Zitationsraten und modifizierten H-Indizes auch Impact-Faktoren (IF). Eine derartige Untersuchung existiert zum jetzigen Zeitpunkt nicht.
Im betrachteten Zeitraum sind die Publikations- und Zitationszahlen stetig gestiegen. Dies lässt auf ein gestiegenes wissenschaftliches Interesse für EUGen schließen. Außerdem ist über die Jahre auch die Anzahl der Autoren pro Publikation gestiegen, was auf eine vermehrte Zusammenarbeit zwischen Autoren, Institutionen und Ländern hindeutet. Als meistpublizierend kristallisierten sich die USA heraus. Auch bezüglich des modifizierten H-Index`, der erhaltenen Zitierungen und der meisten Institutionen, die das Thema EUG beforschen, sind die USA führend. Im Gegensatz dazu ist Israel mit einem weitaus geringeren BIP unter den 5 meistpublizierenden Ländern zu finden. Israels Publikationszahl pro BIP zeigt, dass die Forschung einen hohen Stellen¬wert hat, aus der qualitativ hochwertige Ergebnisse resultieren, was durch die hohe Zitationsrate und den modifizierten H-Index untermauert wird. Unter den Zeitschriften sind Fertility and Sterility, American Journal of Obstetrics & Gynecology und Obstetrics & Gynecology quantitativ die Spitzenreiter. Werden jedoch qualitative Parameter wie der IF betrachtet, siedeln sich die genannten Periodika im hinteren Drittel ein. Im Gegensatz zu Journalen mit hohen IF, wie das New England Journal of Medicine (IF = 51,658) und The Lancet (IF = 39,060) haben die meistpublizierenden Journale ein eingeschränktes Themengebiet, was erheblichen Einfluss auf den IF hat. Unter den 15 meistpublizierenden Fachjournalen werden 14 in englischer Sprache veröffentlicht. Nur die Fachzeitschrift Geburtshilfe und Frauenheilkunde publiziert deutschsprachige Fachbeiträge. Parallel dazu sind mehr als 92 % der Veröffentlichungen in Englisch publiziert worden. Ursächlich hierfür sind unter anderem die Vorauswahl, die vom WoS getroffen wird und die Anerkennung der englischen Sprache als Sprache der Wissenschaft. Mit Abstand die meisten Publikationen wurden im Themengebiet Obstetrics & Gynecology veröffentlicht. Da die EUG ein gynäkologisches Krankheitsbild ist, ist dies wenig verwunderlich. Weltweit führende Institution hinsichtlich der Publikationen ist die University of London. Mit 168 Publikationen reihen sich die weltbekannten amerikanischen Universitäten aus Pennsylvania, Yale und die Harvard University hinter der britischen Einrichtung ein. Hinsichtlich der Zahl der Zitierungen liegt die Londoner Universität hinter dem Center for Disease Control, das in den USA angesiedelt ist. Unter den Autoren genießt der Amerikaner Kurt T. Barnhart (81 Publikationen) großes Ansehen. Diese Veröffentlichungen wurden über 1.000 Mal zitiert. Sein modifizierter H-Index von 19 wird von Hervé Fernandez (mod. H-Index 24) noch übertroffen. Mit 79 Publikationen reiht er sich hinter Barnhart ein. Durch die Genderanalyse wird ersichtlich, dass weitaus weniger Frauen als Autoren in Erscheinung treten, wobei nur ca. 22 % der Autorennamen ihrem Geschlecht zugeordnet werden konnten.
Diese szientometrische Analyse zum Thema EUG liefert einen Überblick über die quantitative und qualitative Entwicklung der internationalen Forschung zeigt die wissenschaftliche Anerkennung auf, interpretiert Ergebnisse und hinterfragt sie kritisch.
Filmgespräche und Contact-sheets als Mittel der Analyse von Dokumentarfilmen des Uncontrolled Cinema
(2019)
In dieser Arbeit betrachte ich den Herstellungsprozess von Dokumentarfilmen aus der subjektiven Sicht der Filmemacher. Anhand von ausgewählten Filmen hinterfrage ich die Umstände ihrer Entstehung. Es ist eine Filmgespräch zentrierte Arbeit. Bevor ich den Filmemacher oder die Filmemacherin besuche schaue ich mir einige seiner Filme an und spreche dann gezielt über ein, zwei oder drei verschiedene Filmprojekte mit ihm. Ich nehme den Filmemacher mit der Kamera auf und bin dabei gleichzeitig auch Gesprächspartner. Zu Beginn meiner Arbeit wurde mir einmal geraten, doch mit Büchern zu arbeiten und auf Interviews zurückzugreifen, die schon verschriftlicht worden sind. Doch jedes Buch verfolgt seine eigene Agenda, seine eigene Zielsetzung, und der Herstellungsprozess wird meistens nur fragmentarisch behandelt. Das Filmemachen ist eine gesellschaftliche ästhetische Praxis, die sehr komplex ist und sehr vielen Einflüssen unterliegt, wie zum Beispiel 1.) ständig wechselnde Orte, an denen ein Filmteam über einen längeren Zeitraum zusammenarbeitet; 2.) Protagonisten, mit denen man über einen längeren oder kürzeren Zeitraum etwas zu tun hat und wodurch sich auch noch nach den Dreharbeiten Freundschaften entwickeln können; 3.) das Arbeiten mit einer Kamera- und Tontechnik, die sich immer wieder verändert, wodurch man sich auf neue Technik einlassen muss und lernen muss, damit umzugehen; 4.) finanzielle Probleme, weil das Filmemachen als freier Filmemacher teuer ist und Fördermittel beantragt werden müssen; 5.) die Frage, ob mit dem gefilmten Bildmaterial am Ende eine Geschichte erzählt werden kann und ob die Protagonisten sich damit wohl fühlen.
Filmgespräche und Contact-sheets als Mittel der Analyse von Dokumentarfilmen des Uncontrolled Cinema
(2019)
In dieser Arbeit betrachte ich den Herstellungsprozess von Dokumentarfilmen aus der subjektiven Sicht der Filmemacher. Anhand von ausgewählten Filmen hinterfrage ich die Umstände ihrer Entstehung. Es ist eine Filmgespräch zentrierte Arbeit. Bevor ich den Filmemacher oder die Filmemacherin besuche schaue ich mir einige seiner Filme an und spreche dann gezielt über ein, zwei oder drei verschiedene Filmprojekte mit ihm. Ich nehme den Filmemacher mit der Kamera auf und bin dabei gleichzeitig auch Gesprächspartner. Zu Beginn meiner Arbeit wurde mir einmal geraten, doch mit Büchern zu arbeiten und auf Interviews zurückzugreifen, die schon verschriftlicht worden sind. Doch jedes Buch verfolgt seine eigene Agenda, seine eigene Zielsetzung, und der Herstellungsprozess wird meistens nur fragmentarisch behandelt. Das Filmemachen ist eine gesellschaftliche ästhetische Praxis, die sehr komplex ist und sehr vielen Einflüssen unterliegt, wie zum Beispiel 1.) ständig wechselnde Orte, an denen ein Filmteam über einen längeren Zeitraum zusammenarbeitet; 2.) Protagonisten, mit denen man über einen längeren oder kürzeren Zeitraum etwas zu tun hat und wodurch sich auch noch nach den Dreharbeiten Freundschaften entwickeln können; 3.) das Arbeiten mit einer Kamera- und Tontechnik, die sich immer wieder verändert, wodurch man sich auf neue Technik einlassen muss und lernen muss, damit umzugehen; 4.) finanzielle Probleme, weil das Filmemachen als freier Filmemacher teuer ist und Fördermittel beantragt werden müssen; 5.) die Frage, ob mit dem gefilmten Bildmaterial am Ende eine Geschichte erzählt werden kann und ob die Protagonisten sich damit wohl fühlen.
Die meisten Informationen, die uns über Frauen im Römischen Reich zur Verfügung stehen, wurden von Männern in literarischen Texten und Rechtsquellen aufgeschrieben. Ein Thema, mit dem das Leben von Frauen des Römischen Reichs näher beleuchtet werden kann, sind Rechtstexte, die sich mit Themen beschäftigen, in denen Frauen eine zentrale Rolle spielen.
Weite Teile der Bevölkerung des Römischen Reichs konnten im zweiten und dritten nach- christlichen Jahrhundert zwischen lokalen und römischen Rechtsangeboten wählen, um be- stimmte Probleme des Alltags zu lösen. Innerhalb des römischen Reichs entstanden zu dieser Zeit Rechtstexte unterschiedlicher Kulturen und verschiedene Rechtssysteme entwickelten unterschiedliche Lösungen für sich inhaltlich überschneidende Themenbereiche und Probleme.
In Rom verschriftlichten römische Juristen ihre Gedanken zu theoretischen Fallbeispielen und gewannen in großen Teilen des römischen Reichs Ansehen. Teile davon liegen uns heute als die im fünften und sechsten Jahrhundert zusammengetragenen Digesten vor. In der römischen Provinz Palaestina lebten jüdische Gelehrte, Rabbinen, die über Jahrhunderte mündlich weitergegebenes Wissen und entwickelte Rechtsbestimmungen aufschrieben, die als die Schriften der Mischna und Tosefta überliefert wurden.
In der Dissertation werden anhand der Lebensabschnitte einer Frau wie sie in der Mischna gezeichnet werden – die Kindheit und Jugend in der Familie des Vaters, das Leben als Ehefrau und das Leben als Witwe – untersucht, welche Handlungsspielräume sich für Frauen in den Texten ergeben und welche Erwartungen an Frauen gestellt werden. Die untersuchten Abschnitte der Mischna und Tosefta werden mit Texten aus den Digesten verglichen.
Obwohl die jüdischen und römischen Rechtstexte auf Traditionen beruhen, die unabhängig voneinander entstanden, beschäftigen sie sich mit den gleichen Themen, nämlich mit dem Erwachsenwerden von jungen Frauen, Fragen des Erbrechts, der Heirat und dem Ende von Ehen durch den Tod des Ehemannes oder eine Scheidung. Weiterhin wird deutlich, dass die Autoren der jüdischen Rechtstexte als Bewohner des Römischen Reichs sich mithilfe von Bestimmungen für das Verhalten verschiedener Mitglieder ihrer Gesellschaft zugleich als Teil der griechisch–römischen Welt sahen und sich von dieser durch eigene Traditionen abgrenzten. Aus der Sicht der Rabbinen konnte das Verhalten von Frauen ihre Gruppenzugehörigkeit nach außen sichtbar machen.
Die Kenntnis der Struktur von Biomolekülen und der biologischen Abläufe, in welche diese involviert sind, ist grundlegend für die Entwicklung von medizinischen Behandlungen. Im Rahmen dieser Arbeit wurden Systeme zur Untersuchung von Biomolekülen, insbesondere Proteinen, hergestellt. Im Mittelpunkt stand die Entwicklung von Materialien, welche neue Möglichkeiten zur Präparation von Proteinen zur Untersuchung derer Struktur mittels Kryo-Transmissionselektronenmikroskopie (Kryo-TEM) eröffnen. In zwei weiteren Projekten wurden biomimetische Systeme aufgebaut, welche die Oberfläche eines Biomoleküls oder biologischen Ensembles nachahmen und hierdurch deren Untersuchung ermöglichen. Hier wurden Systeme zur einfachen Nachbildung biologischer Membranen oder Proteinoberflächen betrachtet.
Eine wichtige Methode zur Untersuchung der dreidimensionalen Struktur von Biomolekülen ist die Kryo-TEM. Zur Mikroskopie werden die Biomoleküle in wenige Mikrometer großen Löchern eines amorphen Kohlenstofflochfilms mittels einer wenige Nanometer dicken Schicht aus amorphem Eis fixiert. Hierfür wird ein dünner Film einer wässrigen Probe auf den Kohlenstofflochfilm aufgebracht und gefroren. Insbesondere für Membranproteine ist die Herstellung derartiger Proben schwierig, da die Proteinpartikel zur Aggregation und Adsorption an dem Kohlenstofflochfilm neigen, wodurch keine Partikel in den Löchern des Kohlenstofffilmes auftreten, welche mikroskopiert werden können.
In dieser Arbeit wurden Materialien zur Verbesserung der Präparation von Proteinen für die Kryo-TEM entwickelt. Es wurden hierfür verschiedene biorepulsive Materialien, auch solche, welche eine spezifische Anbindung der Biomoleküle erlauben, untersucht. Da in der TEM die Probe durchstrahlt wird, eignen sich Nanometer dünne Membranen dieser Materialien als Trägermaterial für die Biomoleküle, da sie nur zu einem geringen Hintergrund führen. Zum einen wurden Nanomembranen durch die chemische Quervernetzung von Nanometer dicken Hydrogelfilmen mit verschiedenen quervernetzenden Molekülen hergestellt. Zum anderen wurden Trägerfilme, wie amorphe Kohlenstofffilme oder Kohlenstoffnanomembranen (engl. carbon nanomembranes, CNM) biorepulsiv funktionalisiert. Darüber hinaus wurde eine Nitrilotriessigsäure(NTA)-funktionalisierte Hydrogel-beschichtete Nanomembran entwickelt, welche markierte Proteine selektiv über einen His-Tag bindet.
Neben der Entwicklung von Materialien zur Untersuchung von Proteinen mittels Kryo-TEM wurden Beschichtungen hergestellt, welche die Oberfläche eines Biomoleküls oder eines Ensembles von Biomolekülen nachahmen. Diese Modelloberflächen sollten ebenfalls die Untersuchung von Eigenschaften der biologischen Systeme ermöglichen. Biologische Membranen bestehen aus einem Ensemble von Biomolekülen. Eine Vielzahl verschiedener Biomolekülen tritt in einer komplexen Anordnung in diesen dünnen Membranen auf. Es wurde versucht, strukturierte Membranen mit lokalen Variationen der physikalischen und chemischen Eigenschaften, jedoch weitaus weniger komplexen Aufbau, herzustellen. Die hergestellten Membranen mit biologisch relevanten Strukturen im Mikrometer- bis Zentimeterbereich, können nach weiterer Forschung als einfache Modellsysteme zur Nachahmung ihrer komplexen biologischen Vorbilder dienen.
In einem weiteren Projekt wurde eine Modelloberfläche für die Bindungstasche des Proteins FimH, welches eine wichtige Rolle in der bakteriellen Adhäsion spielt, entwickelt. In dem Kooperationsprojekt mit der Arbeitsgruppe Lindhorst wurde ein Modellsystem entwickelt, welches dazu dient, herauszufinden, inwiefern eine Funktionalisierung einer Aminosäurevon FimH über eine vorgeschlagenen Ligationsstrategie möglich ist. Das Modellsystem besteht aus einer biorepulsiven Hydrogel-Matrix, aus welcher die Seitenkette der Aminosäure Tyrosin in die Lösung exponiert ist. Die Substrat-katalysierte Reaktion der Aminosäuren-Seitenkette mit dem Photoschalter wurde mithilfe eines Bakterienadhäsionstests untersucht. Es konnte gezeigt werden, dass sich die vorgeschlagene Ligationsstrategie unter Berücksichtigung von Nebenreaktionen zur Modifizierung des Proteins eignet.
Es konnten vier neuartige Systeme, welche die Probenpräparation zur Untersuchung von Proteinen mittels Kryo-TEM vereinfachen, entwickelt werden. Die Ergebnisse sind von wissenschaftlicher Relevanz, da sie die Strukturbestimmung vieler Proteine deutlich vereinfachen und hierdurch beschleunigen können. Außerdem wurden biomimetische Beschichtungen entwickelt, welche entweder Proteinoberflächen oder Biomembranen nachahmen. Die entwickelten Modellsysteme erweitern das Spektrum an Möglichkeiten, Biomoleküle oder biologische Ensembles zu untersuchen.
Generierung CMV-spezifischer T-Zellen aus mononukleären Zellen von CMV-seronegativen Spendern
(2019)
Die positive Entwicklung der adoptiven Zelltherapie zu einer effektiven und sicheren Therapieform ist enorm wichtig für die Behandlung von Patienten mit einer opportunistischen Infektion, wie bspw. mit CMV oder EBV, nach einer Stammzelltransplantation.
Bei (CMV-)seropositiven Spendern besteht die Möglichkeit der Selektion von VST und somit eine Therapieoption für den CMV-Infizierten Empfänger. Aufgrund der nicht vorhandenen VST bei einem negativen Spender, besteht die Option einer Infusion von selektierten VSTs bei einem CMV-infizierten Empfänger nicht. Dies ist ein besonderes Problem bei seropositiven Patienten, die die Stammzellen eines seronegativen Spenders erhalten haben und bei denen die Gefahr einer Reaktivierung des Virus besonders hoch ist.
Um einen möglichen Lösungsansatz hierfür zu finden, wurde in dieser Arbeit versucht Zellen zu generieren, die eine adoptive Zelltherapie bei dem oben genannten Spender/Empfänger-Konstellation ermöglichen.
Der Forschungsansatz dahinter war, aus naiven T-Zellen des seronegativen Spenders, durch Priming mit einem CMV-spezifischen Antigens, in diesem Fall CMV-pp65, VST zu generieren. Um diese herstellen zu können wurden mehrere Versuchsabläufe getestet. Zunächst inkubierte man unmanipulierte PBMCs mit CMV-pp65-geprimten Monozyten in verschiedenen Koinkubation-Ratios. Dies führte nicht zum gewünschten Erfolg.
In dieser Arbeit erfolgte die Selektion der Monozyten via Adhärenzmethode und mittels Microbeads. Da die Monozytenreinheit nachweislich Microbeads-Methode signifikant höher war, als die Reinheit mittels der Adhärenzmethode verließ man diese und arbeitete nur noch mit Microbeads, um ein besseres Verhältnis der Koinkubation zu erzielen.
Um einen möglichen Erfolg zu erzielen wurden in einem nächsten Schritt die selektierten Monozyten zu dendritischen Zellen (DC) weiterentwickelt und wiederum mit unmanipulierten PBMCs inkubiert.
Leider konnten auch mit dieser Herangehensweise keine VST in der Zellkultur nachgewiesen werden. Weiterführend orientierte man sich in dieser Arbeit an einem Protokoll von Wölfl et al46. Hierbei wurden statt unmanipulierten PBMCs, nur CD45RA+ naive T-Zellen aus den PBMCs verwendet, die mit CMV-pp65-geprimten DCs geprimt wurden.
Orientierend an dem Protokoll von Wölfl et al. entwickelten wir einen Versuchsaufbau bestehend aus DC-Generierung, CD45RA+-Zellselektion und Koinkubation der Zellen. Dieses 13-tägige Protokoll wurde bei 5 seronegativen Spendern durchgeführt und zeigte in der FACS Analyse CMV-spezifische T-Zellen.
Der prozentuelle Anteil der VST betrug zwischen 0,33-5,70%.
Somit konnte gezeigt werden, dass es möglich ist VST aus seronegativem Spenderzellen zu generieren und ermöglicht somit Patienten mit seronegativen Stammzellspendern, die an einer CMV-Reaktivierung/Infektion leiden, die Option der adoptiven Zelltherapie, trotz Nichtvorhandenseins von VST im Spenderblut.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Der VEGF-neutralisierende Antikörper Bevacizumab ist ein wichtiger Bestandteil der modernen Tumortherapie. Auch in der Glioblastom Therapie wird Bevacizumab eingesetzt, da in klinischen Studien eine Verlängerung des progressionsfreien Überlebens beobachtet wurde. Leider entwickeln sich schnell Resistenzen und das Gesamtüberleben konnte durch Bevacizumab in der Erstlinientherapie von Glioblastomen nicht verlängert werden.
Die genaue Wirkungsweise von Bevacizumab und somit auch die Resistenzentwicklung sind nur teilweise bekannt. Es wird vermutet, dass es durch Gefäßveränderungen zu einer Mangelsituation und zu Hypoxie kommt. Einige Studien deuten darauf hin, dass es neben der Wiedererlangung einer VEGF-unabhängigen Gefäßversorgung auch zu Resistenz gegen das durch Bevacizumab hervorgerufene, von Sauerstoffmangel gekennzeichnete Mikromilieu kommt. So konnte gezeigt werden, dass Bevacizumab-resistente Tumoren einen stark glykolytischen, sauerstoff-unabhängigen Zellmetabolismus aufweisen und vermehrt Laktat produzieren. Darüber hinaus wurde in Folge der Bevacizumab-Behandlung eine Fehlfunktion von Mitochondrien beobachtet. Unklar ist noch, ob die beschriebenen metabolischen Veränderungen ein Epiphänomen der Nährstoffmangelsituation sind oder ob sie kausal mit der Resistenzentwicklung in Zusammenhang stehen.
In der vorliegenden Arbeit sollte deshalb geprüft werden, ob die metabolische Umstellung hin zu einem glykolytischen, anaeroben Phänotyp eine hinreichende Bedingung zur Entwicklung einer Hypoxie- und Bevacizumabresistenz darstellt.
Hierzu wurden Glioblastomzellen (LNT229) derart verändert, dass sie keine oxidative Phosphorylierung durchführen konnten und rein auf die glykolytische Energiegewinnung angewiesen waren (rho0-Zellen). Diese Veränderung führte in-vitro zu einer Hypoxieresistenz der Zellen. Außerdem waren rho0-Zellen empfindlicher gegenüber Glukoseentzug und einer Behandlung mit dem Glykolyse-Inhibitor 2-Deoxyglucose (2DG). Des Weiteren waren im Mausmodell intrakranielle rho0-Tumorxenografts resistent gegenüber Bevacizumab. Diese Resistenz konnte durch zusätzliche Therapie mit 2DG wieder aufgehoben werden.
Somit konnte in der vorliegenden Arbeit gezeigt werden, dass die Hemmung der oxidativen Phosphorylierung zu einem glykolytischen Phänotyp führt, der hinreichend ist, um eine Hypoxieresistenz und in Folge dessen eine Bevacizumabresistenz in Glioblastomzellen zu verursachen. Dies lässt einen kausalen Zusammenhang zwischen bereits in anderen Studien beschriebenen metabolischen Veränderungen und einer Bevacizumabresistenz in Tumoren vermuten. Der zelluläre Glukosestoffwechsel ist damit ein vielversprechender therapeutischer Angriffspunkt zur Vermeidung und Überwindung einer Bevacizumabresistenz.