Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1725) (remove)
Language
- German (1725) (remove)
Has Fulltext
- yes (1725)
Is part of the Bibliography
- no (1725)
Keywords
- Schmerz (9)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Hepatitis C (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
Institute
- Medizin (711)
- Biowissenschaften (172)
- Biochemie und Chemie (132)
- Biochemie, Chemie und Pharmazie (97)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (46)
- Erziehungswissenschaften (37)
- Neuere Philologien (37)
- Psychologie (36)
- Kulturwissenschaften (32)
- Sportwissenschaften (29)
- Sprach- und Kulturwissenschaften (27)
- Geschichtswissenschaften (23)
- Psychologie und Sportwissenschaften (22)
- Geowissenschaften (18)
- Wirtschaftswissenschaften (18)
- Informatik (16)
- Philosophie (16)
- Rechtswissenschaft (15)
- Geowissenschaften / Geographie (11)
- Mathematik (9)
- Philosophie und Geschichtswissenschaften (9)
- Geographie (8)
- Sprachwissenschaften (7)
- Georg-Speyer-Haus (6)
- Informatik und Mathematik (6)
- Institut für Ökologie, Evolution und Diversität (5)
- Extern (3)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (3)
- MPI für Biophysik (3)
- Biodiversität und Klima Forschungszentrum (BiK-F) (1)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (1)
- Evangelische Theologie (1)
- Katholische Theologie (1)
- Senckenbergische Naturforschende Gesellschaft (1)
- Universität des 3. Lebensalters e.V. (1)
- Universitätsbibliothek (1)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (1)
Hintergrund: In dieser prospektiven Studie wurden erstmals die Auswirkung der Lageveränderung von der Rücken- auf Bauchlagerung auf Hämodynamik und Säure-Basen-Haushalt unter Einlungenventilation bei Patienten untersucht, die sich einer elektiven endoskopischen Ösophagusresektion unterzogen.
Methodik: Insgesamt wurden 10 Patienten (Alter 63 ± 12 Jahre) der ASA-Klassen I-III eingeschlossen. Ausgeschlossen waren Patienten der ASA-Klasse IV-V und Patienten bei denen die Einlungenventilation aus technischen Gründen nicht durchführbar war. Aufgezeichnet wurden neben hämodynamischen Parametern (HF, MAD, ZVD, PAPmean, HI, SVRI) auch respiratorische Parameter (pH, BE, HCO3-, paCO2, paO2, SaO2, SgvO2).
Ergebnisse: Hämodynamik: Die Herzfrequenz stieg unter Einlungenventilation in Bauchlage signifikant gegenüber dem Ausgangswert an. Auch der ZVD stieg 30min nach Umlagerung vom Rücken in Bauchlage unter Einlungenventilation signifikant an. Der Herzindex lag unter Einlungenventilation in Bauchlage signifikant unter dem Endwert.
Säure-Basen-Haushalt: paCO2 und Standard-Bicarbonat (HCO3-) lagen sowohl vor als auch nach Umlagerung im Normbereich. Der pH und der base excess (BE) zeigten einen minimalen Abfall 15min. nach Lagerungsmanöver vom Rücken- in die Bauchlage. Der Sauerstoffpartialdruck (paO2) fiel signifikant um 50% im Vergleich zum Ausgangswert unter Einlungenventilation ab. Die gemischt-venöse Sättigung (SgvO2) fiel ebenfalls unter Einlungenventilation unter den Normbereich, während der Umlagerung vom Rücken auf den Bauch konnte ein Anstieg der SgvO2 um 1,5% verzeichnet werden. Nach Umlagerung traten keine signifikanten Veränderungen der Werte auf.
Schlussfolgerung: Die Ergebnisse der vorliegenden Untersuchung zeigen, dass laparoskopische Ösophagusresektionen mit Veränderungen der hämodynamischen und respiratorischen Parameter einhergehen, die klinische Relevanz war dabei in dem von uns untersuchten Kollektiv als gering anzusehen.
Die vorliegende Arbeit stellt ein organisches Taskverarbeitungssystem vor, das die zuverlässige Verwaltung und Verarbeitung von Tasks auf Multi-Core basierten SoC-Architekturen umsetzt. Aufgrund der zunehmenden Integrationsdichte treten bei der planaren Halbleiter-Fertigung vermehrt Nebeneffekte auf, die im Systembetrieb zu Fehler und Ausfällen von Komponenten führen, was die Zuverlässigkeit der SoCs zunehmend beeinträchtigt. Bereits ab einer Fertigungsgröße von weniger als 100 nm ist eine drastische Zunahme von Elektromigration und der Strahlungssensitivität zu beobachten. Gleichzeitig nimmt die Komplexität (Applikations-Anforderungen) weiter zu, wobei der aktuelle Trend auf eine immer stärkere Vernetzung von Geräten abzielt (Ubiquitäre Systeme). Um diese Herausforderungen autonom bewältigen zu können, wird in dieser Arbeit ein biologisch inspiriertes Systemkonzept vorgestellt. Dieses bedient sich der Eigenschaften und Techniken des menschlichen endokrinen Hormonsystems und setzt ein vollständig dezentrales Funktionsprinzip mit Selbst-X Eigenschaften aus dem Organic Computing Bereich um. Die Durchführung dieses organischen Funktionsprinzips erfolgt in zwei getrennten Regelkreisen, die gemeinsam die dezentrale Verwaltung und Verarbeitung von Tasks übernehmen. Der erste Regelkreis wird durch das künstliche Hormonsystem (KHS) abgebildet und führt die Verteilung aller Tasks auf die verfügbaren Kerne durch. Die Verteilung erfolgt durch das Mitwirken aller Kerne und berücksichtigt deren lokale Eignung und aktueller Zustand. Anschließend erfolgt die Synchronisation mit dem zweiten Regelkreis, der durch die hormongeregelte Taskverarbeitung (HTV) abgebildet wird und einen dynamischen Task-Transfer gemäß der aktuellen Verteilung vollzieht. Dabei werden auch die im Netz verfügbaren Zustände von Tasks berücksichtigt und es entsteht ein vollständiger Verarbeitungspfad, ausgehend von der initialen Taskzuordnung, hinweg über den Transfer der Taskkomponenten, gefolgt von der Erzeugung der lokalen Taskinstanz bis zum Start des zugehörigen Taskprozesses auf dem jeweiligen Kern. Die System-Implementierung setzt sich aus modularen Hardware- und Software-Komponenten zusammen. Dadurch kann das System entweder vollständig in Hardware, Software oder in hybrider Form betrieben und genutzt werden. Mittels eines FPGA-basierten Prototyps konnten die formal bewiesenen Zeitschranken durch Messungen in realer Systemumgebung bestätigt werden. Die Messergebnisse zeigen herausragende Zeitschranken bezüglich der Selbst-X Eigenschaften. Des Weiteren zeigt der quantitative Vergleich gegenüber anderen Systemen, dass der hier gewählte dezentrale Regelungsansatz bezüglich Ausfallsicherheit, Flächen- und Rechenaufwand deutlich überlegen ist.
Seit einigen Jahren ist bekannt, dass Sphingolipide nicht nur eine strukturgebende Funktion in der Plasmamembran aufweisen, sondern ebenfalls als Botenstoffe intra- und extrazellulär aktiv sind. Sphingosin-1-Phosphat (S1P) bildet dabei einen Schlüssel-Metaboliten, da es verschiedene Zellfunktionen wie Wachstum und Zelltod beeinflusst. Es wird durch zwei Isoformen der Sphingosinkinasen, SK1 und SK2, gebildet. Die SK1 wurde bereits gut untersucht und es konnte gezeigt werden, dass sie eine wichtige Rolle beim Zellwachstum einnimmt und einen entscheidender Regulator bei inflammatorischen Erkrankungen und Krebs darstellt. Über die SK2 ist soweit wenig bekannt und die Ergebnisse sind zum Teil kontrovers. Sowohl pro-proliferative als auch anti-proliferative Funktionen der SK2 wurden beschrieben. Andererseits handelt meine Arbeit von Nierenfibrose, da beschrieben wurde, dass Sphingolipide einen wichtigen Einfluss auf die Entwicklung chronischer Nierenerkrankungen nehmen. Nierenfibrose stellt das Endstadium chronischer Nierenerkrankungen dar und führt zu einer Akkumulation der Extrazellulärmatrix, Organvernarbung und zum Verlust der Nierenfunktion. Die SK1 spielt dabei eine protektive Rolle bei der Entstehung von Nierenfibrose. Deshalb sollte in dieser Arbeit die Rolle der Sk2 bei der Entstehung von Nierenfibrose untersucht werden.
Im ersten Teil meiner Arbeit wurde das Mausmodell der unilateralen Ureterobstruktion (UUO) verwendet, welches zur Entwicklung einer tubulointerstitiellen Nephritits und nachfolgender Fibrose führt. Es konnte dabei gezeigt werden, dass sowohl die Protein-Expression als auch die Aktivität der SK2 im fibrotischen Nierengewebe gesteigert wurden. Allgemein wiesen die SK2-/--Mäuse eine verminderte Fibrose in Folge des UUO auf im Vergleich zu den Wildtyp-Mäusen. Dies wurde bestätigt durch eine reduzierte Kollagenakkumulation, sowie eine verminderte Protein-Expression von Fibronektin-1, Kollagen-1, α-smooth muscle actin, connective tissue growth factor (CTGF) und Plasminogen-Aktivator-Inhibitor1 (PAI-1). Diese Effekte gingen einher mit einer gesteigerten Protein-Expression des inhibitorischen Smad7 und erhöhten Sphingosin-Spiegeln in SK2-/--UUO-Nieren. Auf mechanistischer Ebene vermindern die erhöhten Sphingosin-Spiegel die durch transforming growth factor-β (TGFβ) induzierte Kollagenakkumulation, die PAI-1- und CTGF-Expression, aber induzieren die Smad7-Expression in primären Nierenfibroblasten. In einem komplementären Versuch mit hSK2 tg-Mäusen wurde eine verstärkte Entstehung von Nierenfibrose mit erhöhter Kollagenakkumulation, sowie erhöhte Protein-Expressionen von Fibronektin-1, Kollagen-1, α-smooth muscle actin, CTGF und PAI-1 festgestellt. Die Smad7-Expression dagegen war vermindert.
Im zweiten Teil meiner Arbeit stand der glomeruläre Teil der Niere im Fokus und es wurde untersucht, ob die Überexpression der SK2 zu einer phänotypischen Veränderung der glomerulären Mesangiumzellen führt. Mesangiumzellen wurden dazu aus den hSK2 tg-Mäuse isoliert und charakterisiert. Es konnte gezeigt werden, dass hSK2 und mSK2 in den transgenen Zellen hauptsächlich in der zytosolischen Fraktion lokalisiert sind, während S1P ausschließlich im Kern akkumulierte. Weiterhin konnte eine verminderte Proliferation unter normalen Wachstumsbedingungen der hSK2 tg-Zellen im Vergleich zu den Kontrollzellen beobachtet werden. Die Zellen reagierten auch sensitiver auf Stress-induzierte Apoptose. Auf molekularer Ebene konnte dies durch eine reduzierte ERK- und Akt/PKB-Aktivierung erklärt werden. Nach Staurosporin-Behandlung wurde Apoptose durch den intrinsischen, mitochondrialen Apoptosesignalweg induziert. Dabei konnte eine reduzierte anti-apoptotische Bcl-xL-Expression und vermehrte Prozessierung von Caspase-9 und Caspase-3 und PARP beobachtet werden.
Zusammenfassend konnte in dieser Arbeit gezeigt werden, dass eine verminderte tubulointerstitielle Fibrose-Entstehung durch die Deletion der SK2, sowie anti-proliferative und Apoptose-induzierende Effekte durch die SK2 in Mesangiumzellen nachgewiesen werden konnten. Somit könnten SK2-Inhibitoren die Entstehung tubulointerstitieller Fibrose und mit Proliferation assoziierte Erkrankungen wie mesangioproliferative Glomerulonephritis positiv beeinflussen.
Ziel dieser Arbeit war es, eine Methode zur akustischen Konditionierung speziell für cochleaimplantierte Katzen zu entwickeln. Die Methode sollte bei den Katzen Interesse an akustischen Reizen induzieren und mit einem geringen Aufwand Hör- und Unterschiedsschwellen bestimmbar machen.
Dabei konnte auf den Erfahrungen aus der Arbeit von Manos Pramateftakis aufgebaut werden.
Bei der Katze handelt es sich um ein gutgeeignetes Tiermodell, wodurch sich die gewonnenen Ergebnisse in gewissem Maße auf den Menschen übertragen lassen. Zusammen mit den Resultaten aus den neurophysiologischen und histologischen Untersuchungen sollen sie helfen, die Implantate und deren Codierungsstrategien zu verbessern.
Es wurden insgesamt sieben Katzen für die Konditionierungsexperimente verwendet, davon vier Tiere, zwei taub geborene und zwei künstlich vertäubte, mit einem Cochleaimplantat ausgestattet. Es wurde sichergestellt, daß die Tiere vor der Implantation taub waren und keinerlei Hörerfahrung hatten. Die Tiere wurden im Alter von 2,5 bis 6,5 Monaten implantiert. Drei weitere Katzen dienten als hörende Kontrollen. Die sieben Katzen wurden zwischen 12 und 102 Tage konditioniert.
Die verwendeten Cochleaimplantate wurden in unserem Institut speziell für den Einsatz bei Katzen entwickelt. Es handelt sich dabei um fünf kugelförmige Reizelektroden, die in die Scala tympani eines Ohres inseriert wurden, und eine indifferente Elektrode. Es wurde ein rein monopolares Reizmuster verwendet. Bei der entwickelten Methode handelte es sich um eine operante Konditionierung mit positiver Verstärkung und einem konstanten Verstärkungsmuster. Die Konditionierungssitzungen fanden einmal täglich, an sieben Tagen der Woche in einer schalldichten Kammer statt, mit 15 – 20 Trials (Tests) pro Sitzung. Die Tiere wurden nicht futterdepriviert, erhielten aber für mindestens sechs Stunden vor der Konditionierung keine Nahrung.
Ziel war es, daß die Katzen ein Verhalten zur Frequenzdiskrimination erlernten. Dazu mußten die Tiere bei zwei verschiedenen Reizfrequenzen unterschiedliche Futternäpfe aufsuchen, um eine Belohnung zu erhalten. Das Hinlaufen zu dem richtigen Futternapf wurde als Treffer (Hit) gewertet und in jedem Fall verstärkt. Bei den Versuchen wurde bewußt auf eine Automatisierung verzichtet. Damit es möglich war auf das individuelle Verhalten der Katzen zu reagieren, wurde einem Versuchsleiter der Vorzug gegeben. Es waren mit dieser Methode nur durchschnittlich sieben Sitzungen oder 122,2 Trials nötig, damit die Tiere zuverlässig den Zusammenhang zwischen Reiz und Verstärker erkannten. Die Methode kann aufgrund dieser Daten als sehr effektiv bezeichnet werden, die mit wenig Zeitaufwand durchzuführen ist. Es konnte kein Unterschied zwischen normal hörenden und implantierten Tieren bezüglich des Lernerfolges festgestellt werden. Einzig die Katze, die erst im Alter von über sechs Monaten implantiert wurde, zeigte einen deutlich schlechteren Lernfortschritt als alle anderen Tiere. Möglicherweise ein Zeichen, daß bei dem Tier zum Zeitpunkt der Implantation die kritische Periode der Gehirnentwicklung bereits abgeschlossen war.
Mit dieser Methode konnte allerdings keine der Katzen ein Verhalten zur Frequenzdiskrimination erlernen. Die Tiere vermochten nicht die unterschiedlichen Reize den verschiedenen Futterstellen zuzuordnen. Das Fehlen eines Manipulandums und damit einer eindeutigen, zu verstärkenden Verhaltensweise könnten hierfür der Grund sein. Es ist zu vermuten, daß die Anforderungen an die Tiere in letzter Konsequenz zu schwierig waren. Weiterführende Untersuchungen werden nötig sein, um die Methode zu optimieren.
Der Artikel „Longitudinal changes in cortical thickness in adolescents with autism spectrum disorder and their association with restricted and repetitive behaviors“ von Bieneck et al. (2021), veröffentlicht in „Genes“, beschäftigt sich mit der Frage nach einem Zusammenhang zwischen der intra-individuellen Entwicklung der Kortexdicke von Adoleszent*innen mit Autismus-Spektrum-Störung (ASS) und der Schwere restriktiver und repetitiver Verhaltensweisen (restricted and repetitive behaviors = RRB) im Verlauf dieser Lebensphase. Darüber hinaus untersuchen wir potentielle Anreicherungen von Genen, bei denen eine Assoziation mit ASS bekannt ist, in entsprechenden Hirnregionen mit abweichender Entwicklung der Kortikalen Dicke (Cortical Thickness = CT). Ziel der Studie ist es mikroskopische und makroskopische Ätiologien der ASS miteinander zu verknüpfen und diese entsprechenden klinischen Phänotypen zuzuordnen.
Die Basis dieser Forschungsarbeit bilden Daten, die im Rahmen einer longitudinalen Studie zur Gehirnentwicklung bei ASS während der Adoleszenz an der Kinder- und Jugendpsychiatrie des Universitätsklinikums in Frankfurt erhoben worden sind. Die Stichprobe setzt sich zusammen aus insgesamt 70 Proband*innen im Alter zwischen 11 und 18 Jahren zum ersten Testzeitpunkt (T1), davon N=33 mit diagnostizierter ASS und N=37 neurotypische Kontrollen. Alle Proband*innen erhalten im ersten Jahr (T1) einen strukturellen Magnetresonanztomographie-Scan (sMRT), der im Abstand von zwei Jahren (T2) wiederholt wird. Die Quantifizierung der Symptomschwere erfolgt in beiden Gruppen mittels eines klinischen Fragebogens zu restriktivem und repetitivem Verhalten an beiden Messzeitpunkten (T1, T2).
Die sMRT-Scans durchlaufen für die Auswertung ein Softwarepaket, um eine virtuelle Rekonstruktion der kortikalen Oberfläche von jedem T1-gewichteten Bild abzuleiten. Die Software gibt die intraindividuelle Veränderung der CT an jedem Vertex an. Mittels statistischer Analysen unter Verwendung eines generalisierten linearen Modells (GLM) werden Vertex-weise Unterschiede in der Veränderung der CT zwischen beiden Gruppen herausgearbeitet und mit der Änderung der Symptomschwere von RRBs korreliert.
Der dritte Schritt der Analyse umfasst die Auswertung potentieller genetischer Korrelate atypischer CT-Entwicklung der Adoleszent*innen mit ASS. Hierfür wird ein Hirnatlas (Allen Human Brain Atlas) hinzugezogen, der Informationen zur räumlichen Verteilung der Expression von Genen im menschlichen Cortex enthält. Dieser wird mit den Hirnregionen, die eine abweichende Veränderung der CT in Autist*innen zeigen, abgeglichen, und eine entsprechende Liste an Genen wird abgeleitet. Es folgt eine Analyse dieser Genliste im Hinblick auf Anreicherungen von Genen, die in Verbindung mit ASS stehen. Dieser Vorgang wird mit den Hirnregionen wiederholt, die eine Korrelation der abweichenden CT-Entwicklung mit der Veränderung der Symptomschwere von RRBs in den autistischen Teilnehmenden zeigen. Die daraus gewonnene Genliste wird auf eine vermehrte Anreicherung (i.e. Enrichment) von Genen untersucht, die in Verbindung mit restriktivem und repetitivem Verhalten stehen.
Die Ergebnisse dieser Studie zeigen eine signifikant verminderte Abnahme der CT in verschiedenen Hirnregionen von Personen mit ASS, die funktionell mit autistischen Symptomen und Verhaltensweisen gekoppelt sind. Eben diese Regionen zeigen zudem eine vermehrte Anreicherung von Genen, die ebenfalls eine Assoziation mit ASS aufweisen. Eine Verbindung von strukturellen und klinischen Parametern zeigt sich durch die Korrelation abnehmender CT in bestimmten Hirnregionen mit einer verminderten Schwere restriktiver und repetitiver Verhaltensweisen im Verlauf.
Diese Untersuchungen weisen auf Verbindungen des neuroanatomischen Parameters CT mit genetischen Grundlagen der ASS hin und zeigen einen Zusammenhang dieser Korrelationen mit unterschiedlichen Ausprägungen des klinischen autistischen Phänotyps.
Krebs stellt die zweithäufigste Todesursache in Europa dar. Obwohl sich Diagnose und Heilungschancen über die letzten Jahre verbessert haben, besteht bei bestimmten neoplastischen Erkrankungen eine unverändert schlechte Prognose. Grundlage für eine langfristige Verbesserung des Behandlungserfolges ist ein molekulares Verständnis der Mechanismen, welche zur Krankheitsentstehung, Progression und Therapieresistenz beitragen. Nur so ist es möglich, nach neuen pharmakologischen und oder/genetischen Inhibitoren zu suchen, welche spezifische Eigenschaften dieser Faktoren blockieren und somit die Entwicklung neuer Therapiestrategien erlauben („from bench to bedside“). In diesem Zusammenhang spielen Proteasen nicht nur eine wichtige Rolle in pathobiologischen Prozessen, sondern stellen auch klinisch anerkannte Zielstrukturen derzeitiger Behandlungsstrategien dar. So wurde auch die Threonin-Protease Taspase1 als potenzielles Therapieziel der von Mixed Lineage Leukemia (MLL)-Translokationen verursachten Leukämien postuliert. Die Taspase1-induzierte Spaltung des MLL Proteins spielt eine wichtige physiologische Rolle in Entwicklungs- und Differenzierungsprozessen. Darüber hinaus scheint Taspase1 durch die Prozessierung von MLL-Translokationsprodukten, im speziellen des Produkts der t(4;11), maßgeblich zur Leukämieentstehung beizutragen. Zusätzlich gibt es, wie auch in dieser Arbeit gezeigt, erste Hinweise, dass Taspase1 auch für solide Tumore bedeutsam sein könnte. Jedoch sind unsere Kenntnisse über die molekularen Mechanismen, welche für die (patho)biologischen Funktionen von Taspase1 verantwortlich sind, bislang noch lückenhaft. Obwohl neben MLL-Proteinen einige wenige Taspase1-Zielproteine postuliert wurden, fehlt derzeit eine Übersicht über das „Taspase1-Degradom“. Die Kenntnis aller humanen Taspase1-Zielproteine stellt eine wichtige Voraussetzung dar, um die biologischen Funktionen dieser Typ2-Asparaginase gezielter erforschen und verstehen zu können. Zudem stehen im Gegensatz zu anderen Proteasen für Taspase1 bislang keine wirksamen Inhibitoren zur Verfügung, welche nicht nur als potenzielle Wirkstoffe, sondern vor allem als „chemische Werkzeuge“ der Funktionsaufklärung dienen könnten. Daher wurde im Rahmen der vorliegenden Arbeit das erste effiziente zellbasierte Taspase1- Testsystem entwickelt. Das Translokations-Testsystem basiert auf einem autofluoreszierenden Indikatorprotein, welches eine Taspase1-Spaltstelle enthält und durch die Wahl geeigneter Transportsignale zwischen Kern und Zytoplasma wandert. Nach Koexpression aktiver Taspase1, nicht aber inaktiver Taspase1-Mutanten bzw. anderer Proteasen, wird dieser Biosensor gezielt gespalten und dessen Akkumulation im Zellkern induziert. Die Spezifität des Testsystems mit seinem hohen Signal-zu-Hintergrund-Verhältnis erlaubte dessen Anpassung an eine Mikroskopie-basierte Hochdurchsatz-Plattform (Knauer et al., PloS ONE eingereicht). Durch gerichtete Mutagenese der Taspase1-Spaltstelle im Biosensor-Kontext konnte eine optimierte Konsensus-Erkennungssequenz für Taspase1 (Aminosäuren Q3[F,I,L,V]2D1¯G1’X2’D3’D4’) definiert werden, welche erstmalig eine zuverlässige bioinformatische Vorhersage des humanen Taspase1-Degradoms erlaubte. Die biologische Relevanz dieser Analyse wurde durch Validierung einzelner Zielproteine unterstrichen, wobei bisher noch nicht beschriebene Taspase1-Zielproteine wie beispielsweise Myosin1F und der Upstream Stimulating Factor 2 identifiziert wurden. Obwohl für beide Proteine bereits eine tumor-assoziierte Funktion beschrieben ist, bleibt die kausale Rolle von Taspase1 für deren (patho)physiologische Funktionen noch zu klären (Bier et al., JBC). Die Tatsache, dass Taspase1 als nukleäres/nukleoläres Protein identifiziert werden konnte, es sich bei den vorhergesagten Zielproteinen jedoch nicht ausschließlich um Kernproteine handelt, belegte die Notwendigkeit, die Regulation der intrazellulären Lokalisation von Taspase1 zu entschlüsseln. Experimentelle und bioinformatische Analysen zeigten erstmalig, dass Taspase1 über ein zweigeteiltes Importsignal über Importin-a aktiv in den Kern transportiert wird, jedoch kein nukleäres Exportsignal besitzt. Interessanterweise ist sowohl die cis- als auch die trans-Aktivität von diesem Kerntransport abhängig. Die nukleoläre Akkumulation wird hingegen durch die Wechselwirkung mit Nukleophosmin vermittelt. Erste Ergebnisse deuten darauf hin, dass Taspase1 am Nukleolus aktiviert wird und möglicherweise durch die Kernexportfunktion von Nukleophosmin transient Zugang zum Zytoplasma erhält, um so auch zytoplasmatische Proteine zu prozessieren (Bier et al., Traffic eingereicht). Zusätzlich konnten erstmalig multiple post-translationale Modifikationen von Taspase1 nachgewiesen werden (Bier et al., Manuskript in Vorbereitung). So kann Taspase1 über die Interaktion mit den Peptidasen Senp1-3 sowohl durch Sumo1 als auch durch Sumo2 sumoyliert werden. Diese so vermittelten dynamischen (De)Sumoylierungszyklen könnten eine Feinregulation der Enzym-Substrat-Interaktion darstellen. Zusätzlich wird Taspase1 durch verschiedene Histon-Acetyltransferasen (HAT) acetyliert und dadurch möglicherweise in seiner enzymatischen Aktivität beeinflusst. Interessanterweise acetylieren die HATs p300 und GCN5 hauptsächlich die Proform von Taspase1, was mit einer verstärkten cis-Aktivität einhergeht, während CBP und pCAF eher die prozessierte Form acetylieren. Andererseits interagieren die Histon-Deacetylasen HDAC-3 und -6 mit Taspase1, was nur die cis-Aktivität zu beeinflussen scheint. HDAC1 hingegen verhindert die Prozessierung der zweiten MLL-Schnittstelle, was auf eine zyklische Regulation im Wechsel mit der Acetylierung schließen lässt. WeitereUntersuchungen müssen klären, ob und wie diese post-translationale Feinregulation die (patho)biologische Aktivität von Taspase1 beeinflussen. Zusammenfassend konnten im Rahmen dieser Arbeit entscheidende neue Einblicke in die biologische Funktion und Regulation von Taspase1 gewonnen werden.
Einleitung: Sirolimus, ein mechanistic target of rapamycin (mTOR)-Inhibitor, wurde trotz fehlender Zulassung zur Rejektionsprophylaxe nach Lebertransplantation als Reserveimmunsuppresivum in individuellen Indikationen eingesetzt. Als weiterer mTOR-Inhibitor wurde Everolimus 2012 für diese Indikation zugelassen. Ziel dieser Arbeit war eine systematische Analyse klinischer und pharmakologischer Daten im Rahmen einer Konversion einer Sirolimus- zu einer Everolimus-basierten Immunsuppression im Langzeitverlauf nach Lebertransplantation
Methoden und Patienten: Es erfolgte eine retrospektive, systematische Analyse biochemischer und klinischer Daten vor und nach der Umstellung bei 16 Patienten (Männer/Frauen, 8/8) nach Lebertransplantation, bei denen eine Umstellung der Immunsuppression von Sirolimus auf Everolimus erfolgt war mit besonderem Augenmerk auf Transplantatfunktion, Nierenfunktion und metabolische Komorbiditäten. Die statistische Analyse erfolgte mittels des Friedman-Tests zum Vergleich mehrerer abhängiger Stichproben, worauf bei signifikantem Ergebnis eine Post-hoc-Analyse folgte.
Ergebnisse: Die Patienten waren im Median (Minimum-Maximum) 10,1 (4-22,3) Jahre nach Lebertransplantation von Sirolimus auf Everolimus umgestellt worden. Bei der Mehrheit der Patienten war keine Dosisanpassung nach der Umstellung notwendig. Im Beobachtungszeitraum wurden keine Transplantatabstoßung oder klinisch relevante Komplikationen beobachtet. Zudem wurden vor und nach Umstellung keine signifikanten Unterschiede hinsichtlich Nierenfunktion, Diabetes mellitus oder arteriellem Blutdruck festgestellt. Die Bilirubin-Serumkonzentration war nach der Umstellung auf Everolimus niedriger, während AST-, ALT- und Triglycerid-Serumkonzentrationen signifikant höher waren.
Zusammenfassung: Diese Arbeit stellt die erste systematische Analyse der Konversion einer Sirolimus- auf eine Everolimus-basierten Immunsuppression im Langzeitverlauf nach Lebertransplantation dar. Relevante Komplikationen einschließlich Abstoßungen wurden nicht beobachtet.
Die vorliegende Arbeit verfolgt den Anspruch, die von Paul Natorp (1907) gestellte Frage, was die Gemeinschaft für die Erziehung und umgekehrt die Erziehung für die Gemeinschaft bedeute, empirisch auszuloten. Im Mittelpunkt des Forschungsinteresses steht dabei das Verhältnis von Schule und Gemeinschaft in der ‚postnationalen Konstellation‘ (Habermas 1998), dem sich die Arbeit über die Untersuchung von Unterrichtskommunikation zu den Themen ‚Nationalsozialismus/Holocaust‘ und ‚Multikulturalismus/Rassismus‘ anzunähern versucht.
Zur Vorbereitung der empirischen Studie wird im Rahmen einer Semantikstudie zunächst der pädagogische Diskurs zum Thema Gemeinschaft von den ersten Vorläufern gemeinschaftspä-dagogischen Denkens bis hin zu aktuellen konzeptionellen Entwürfen nachgezeichnet. Funktion und Bedeutung der Gemeinschaftsfigur als Bezugskategorie von Erziehungsreflexion in der Moderne werden herausgearbeitet. Weiterhin werden die rekonstruierten gemeinschaftspädagogischen Konzepte in Hinblick auf ihr Spannungspotential zu Leitprinzipien demokratischer Erziehung beleuchtet.
Mithilfe sequenzanalytischer Interpretationen wird anschließend der Frage nachgegangen, welche Rolle Gemeinschaftsbezügen als Fluchtpunkt pädagogischer Einwirkungsbemühungen im Unterricht zukommt. Gleichzeitig wird gefragt, ob und in welcher Weise Unterricht Gemeinschaft als Ermöglichungsform zur Umsetzung seiner pädagogischen Absichten in Anspruch nimmt. Nicht zuletzt richtet die Analyse das Augenmerk auf den Umgang mit den potentiellen Herausforderungen, die unter Migrationsbedingungen mit dem Rekurrieren auf Gemeinschaft am Lernort (Geschichts-)Unterricht verbunden sind.
Die Interpretationen zeigen, wie Unterricht Gemeinschaft in Anspruch nimmt, um die Bedingungen seines Prozessierens zu sichern. Weiterhin decken sie zwei kontrastierende Typen des Rekurrierens auf Gemeinschaft als Fluchtpunkt pädagogischer Kommunikation zum Thema NS auf. Als Lösungsoption im Umgang mit den migrationsbedingten Herausforderungen von Geschichtsunterricht zum Thema NS deutet sich indes die Tendenz an, verstärkt auf eine universalistische Erinnerungs- und Verantwortungskultur Bezug zu nehmen.
Das Gefahrenpotential, das dem Gemeinschaftsgedanken in der aktuellen erziehungswissenschaftlichen Diskussion zugeschrieben wird, erweist sich in den betrachteten Unterrichtsse-quenzen als beschränkt. Die Beobachtungen legen vielmehr die These einer eingehegten Form von Gemeinschaftserziehung in der gegenwärtigen Unterrichtspraxis nahe. Darin erfährt das Risiko, das gemeinschaftspädagogischen Ansätzen ihrer Kritik nach eingeschrieben ist, über normative Selbstverpflichtungen der pädagogischen Praxis eine Eindämmung.
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Die vorliegende Arbeit beschäftigte sich mit der Entwicklung, Synthese und
Charakterisierung neuartiger redoxaktiver Liganden und deren Metallkomplexen. Basierend
auf dem para- und ortho-Hydrochinon / Benzochinon-Redoxsystem wurden 13 neue
Bis(pyrazol-1-yl)methan-Liganden (28 – 36 und 67 – 70; Schema 47) synthetisiert und
vollständig charakterisiert. Ein Schwerpunkt lag auf der Einführung von Substituenten am
Bis(pyrazol-1-yl)methan-Donor, um deren Einfluss auf das N,N′-Koordinationsverhalten
gegenüber Metallionen zu untersuchen. In Analogie zu den klassichen Skorpionaten sind
Substituenten in Position 3 der Pyrazolringe in der Lage, koordinativ ungesättigte
Metallzentren kinetisch zu stabilisieren, was für potentielle Anwendungen in der Katalyse
essentiell ist. Bei den ortho-chinoiden Liganden (67 – 70; Schema 47) erfüllt die redoxaktive
Gruppe eine zweite Funktion, nämlich als Chelatdonor gegenüber Metallzentren, was die
Synthese und Untersuchung (hetero-)dinuklearer Komplexe erlaubt.
Schema 47: In dieser Arbeit synthetisierte und charakterisierte redoxaktive Bis(pyrazol-1-yl)methan-
Liganden.
Die kristallographische Charakterisierung von 10 dieser Liganden (28 – 33, 67 – 70) zeigte
größtenteils sehr ähnliche strukturelle Parameter. Ein steigender sterischer Anspruch der
Substituenten am Bis(pyrazol-1-yl)methan führte zu einer leichten Streckung der
Chinon–Bis(pyrazol-1-yl)methan-Bindung und zu kurzen Kontakten zwischen Substituenten
am zentralen Methin-Kohlenstoffatom und den ipso- (HQ-C1) bzw. ortho-Kohlenstoffatomen
(HQ-C2) am sechsgliedrigen Ring. Diese kurzen Kontakte spielten in der oxidativen
Demethylierung von 32 eine Rolle. Während alle anderen para-chinoiden Liganden mit
Cerammoniumnitrat (CAN) zu den erwarteten para-Benzochinon-Derivaten reagierten
(Schema 48), wurde im Zuge der Oxidation von 32 ein zusätzliches Sauerstoffatom am
sechsgliedrigen Ring eingeführt (47; Schema 48). Im Gegenzug wurde die sterisch am
stärksten abgeschirmte Methoxygruppe nicht oxidativ demethyliert. Letztendlich konnte
gezeigt werden, dass (i) das neu eingeführte Sauerstoffatom von atmosphärischem Sauerstoff
stammt und (ii) alle fünf Methylgruppen und beide Methoxygruppen in 32 für die Oxidation
essentiell sind.
Zusammenfassung
72
Schema 48: Oxidation der para-chinoiden Bis(pyrazol-1-yl)methan-Liganden mit CAN.
Die Cyclovoltammogramme der ortho-chinoiden Bis(pyrazol-1-yl)methan-Liganden
(untersucht am Beispiel von 67, 68 und 70) zeigten irreversible Redoxwellen, da im Zuge der
Oxidation OH-Protonen abgespalten wurden; die Redoxpotentiale liegen in einem mit
chemischen Oxidationsmitteln gut zugänglichen Bereich. 70 wurde von CAN erfolgreich
oxidiert, das Produkt 71 zersetzte sich unter den Reaktionsbedingungen allerdings sehr
schnell und konnte nicht isoliert, sondern lediglich als Additionsprodukt von 4-tert-
Butylpyridin abgefangen werden. Unter optimierten Reaktionsbedingungen und mit DDQ als
Oxidationsmittel ließen sich 70 und 68 in ihre oxidierte Form überführen und in Reinform
gewinnen. Die für ortho-Benzochinone typische Neigung zur Zersetzung wurde auch bei 71
und 73 beobachtet, wobei letzteres sich wesentlich schneller zersetzte (innerhalb von
Stunden) als 71 (innerhalb eines Tages).
Abb. 36: N,N′-Cobalt- und Palladium-Komplexe 59, 60, 74 und 75.
Die Koordinationschemie repräsentativer Vertreter der 13 redoxaktiven Bis(pyrazol-1-
yl)methan-Liganden wurde untersucht. Bereits der sterisch nur mäßig anspruchsvolle parachinoide
Ligand 29 ist in der Lage, koordinativ ungesättigte CoII-Ionen kinetisch gegenüber
der Bildung von 1:2 Komplexen zu stabilisieren. Im Festkörper liegen ausschließlich
Verbindungen mit einer 1:1 Zusammensetzung von Ligand zu CoII vor (59 und 60; Abb. 36).
In Lösung scheinen hingegen Gleichgewichte zu existieren, in denen auch die koordinativ
abgesättigten oktaedrischen 2:1 Komplexe auftreten. Die ortho-chinoiden Liganden 67 und 68
bildeten selektiv entsprechende N,N′-koordinierte PdCl2-Komplexe, ohne dass das ortho-
Hydrochinonat (Catecholat) als konkurrierender O,O′-Donor wirkte (74 und 75).
Zusammenfassung
73
Es zeigte sich jedoch auch, dass sterisch sehr anspruchsvolle Substituenten am
Bis(pyrazol-1-yl)methan-Fragment in Reaktionen mit Übergangsmetallen zu einer Zersetzung
des Ligandengerüsts führen können. So reagierte der para-chinoide tert-Butyl-substituierte
Ligand 31 mit [Co(NO3)2] zu [(HpztBu,H)2Co(NO3)2] (63). Eine analoge Zersetzung zu trans-
[(HpzR,H)2PdCl2] (76: R = Ph und 77: R = tBu) wurde nach der Reaktion der ortho-chinoiden
Liganden 69 bzw. 70 mit [PdCl2]-Quellen beobachtet.
Schema 49: Synthese von O,O′-Koordinationskomplexen der ortho-chinoiden Bis(pyrazol-1-
yl)methan-Liganden 68, 69 und 70.
Die ortho-chinoiden Bis(pyrazol-1-yl)methan-Liganden (67 – 70) besitzen mit ihrem
Catecholat-O,O′-Donor eine zweite Koordinationsstelle, was diese Liganden für die Synthese
von dinuklearen Komplexen interessant macht. Da gezeigt werden konnte, dass [PdCl2]
selektiv an den Bis(pyrazol-1-yl)methan-Donor koordiniert (vgl. 59, 60, 74 und 75; Abb. 36),
galt es als nächstes zu evaluieren, ob eine ähnlich selektive Bindung anderer Metallionen an
den O,O′-Donor möglich ist.
Abb. 37: Molekulare Strukturen ausgewählter O,O′-Koordinationskomplexe ortho-chinoider
Bis(pyrazol-1-yl)methan-Komplexe 82 (links), 83 (Mitte) und 85 (rechts).
In der Tat konnten in sehr guten Ausbeuten O,O′-gebundene [(p-cym)Ru]-, [(Phpy)2Ir]-
und [(Cp*)Ir]-Komplexe ausgewählter redoxaktiver ortho-chinoider Liganden dargestellt
werden. Vorteilhaft war die Verwendung der kristallinen, nicht-flüchtigen Base TlOtBu zum
Abfangen der im Zuge der Komplexierung freiwerdenden Protonen (Schema 49, Abb. 37).
Die Eliminierung von TlCl sorgt für eine irreversible Reaktion zu den entsprechenden
Zusammenfassung
74
Komplexen. Besonders interessant ist die Koordinationschemie des Liganden 68 im chiralen,
anionischen IrIII-Komplex 83 (Abb. 37 Mitte), der in der Synthese als Thallium-Salz anfiel
und im Festkörper TlI-verbrückte Dimere bildete.
Eine elektrochemische Charakterisierung wurde mit 85 durchgeführt. Wie erwartet, zeigte
der komplexierte Bis(dimethylpyrazol-1-yl)methan-Ligand im Gegensatz zu freiem 68 eine
reversible Oxidationswelle. Die Potentialdifferenz zwischen Liganden-Oxidation und Iridium-
Reduktion beträgt fast 2 V, was in diesem Zusammenhang bedeutet, dass sich 68 als
unschuldiger Ligand verhält und man Iridium zweifelsfrei die Oxidationsstufe +III zuweisen
kann. Mit Komplexen von 68 und leichter reduzierbaren Übergangsmetallen sollte es
hingegen möglich sein, in den Bereich des nicht-unschuldigen Verhaltens vorzudringen und
z.B. Valenz-Tautomerie zu beobachten.
Mit effizienten Synthesewegen zu N,N′-Komplexen einerseits (74 und 75; Abb. 36) und
O,O′-Komplexen andererseits (u.a. 83 und 85; Abb. 37) wurde als nächstes ein heterodinuklearer
Komplex synthetisiert (87; Schema 50). 68 erwies sich als am besten geeigneter
Ligand, da er, wie bereits erwähnt, eine gute Löslichkeit bei moderatem sterischen Anspruch
besitzt und der N,N′-Donor auch in Gegenwart von Lewis-sauren Metallionen beständig ist.
Die Wannenform des Bis(pyrazol-1-yl)methan-PdII-Chelatrings in 87 bringt das Palladium-
Ion in räumliche Nähe zum ortho-Hydrochinonat π-System. In früheren Studien dieser
Arbeitsgruppe konnte gezeigt werden, dass ein solches Arrangement Elektronenübertragungen
zwischen dem Chinon und dem koordinierten Palladium-Zentrum erlaubt.
Durch die direkte konjugative Wechselwirkung des zweiten Metallzentrums (IrIII) mit der
redoxaktiven Gruppe über die Sauerstoffatome in 87 sollte eine effektive elektronische
Ligand ↔ Metall- und Metall ↔ Metall-Kommunikation möglich sein. Die elektrochemische
Charakterisierung zeigte allerdings, dass im vorliegenden Fall die Potentiale der drei
Komponenten Chinon / PdII / IrIII mit jeweils ca. einem Volt zu weit auseinander liegen.
Schema 50: Synthese eines hetero-dinuklearen IrIII/PdII-Komplexes.
Im letzten Teilgebiet dieser Arbeit wurde die Eignung der ortho-chinoiden Liganden 67
und 70 für den Aufbau höhermolekularer Koordinationsverbindungen und oligonuklearer
Aggregate untersucht.
Zusammenfassung
75
Schema 51: Synthese der oktaedrischen Komplexliganden 89 – 96.
Dafür wurden Komplexliganden synthetisiert, die aus einem Zentralmetall bestehen, das
oktaedrisch von je drei O,O′-koordinierenden Liganden 67 bzw. 70 umgeben ist (Schema 51).
Mit den freien Bis(pyrazol-1-yl)methan-Donorgruppen vermag jeder dieser Komplexliganden
drei weitere Metallzentren zu koordinieren. Derartige Verbindungen könnten aufgrund ihrer
dreidimensionalen Struktur z.B. Anwendung im Aufbau von redoxaktiven metallorganischen
Netzwerken oder elektrisch leitfähigen Koordinationspolymeren finden. Als Zentralmetalle
dienten FeIII- und AlIII-Ionen; erstere, weil sie selbst redoxaktiv sind, und letztere, weil sie
eine im Vergleich zu FeIII ähnliche Koordinationschemie besitzen, aber wegen ihres
Diamagnetismus‘ eine NMR-spektroskopische Charakterisierung ermöglichen. Je nach
verwendeter Base wurden die dreifach anionischen Komplexliganden als Lithium- bzw.
Thallium-Salze isoliert. Die NMR-Spektren von 89, 90, 93 und 94 zeigten jeweils nur einen
Signalsatz, obwohl sich, bedingt durch die Asymmetrie des Liganden und die Chiralität des
oktaedrischen Metallzentrums, fac- und mer-Isomere bilden können. Es konnte nicht
abschließend geklärt werden, ob sich exklusiv das höhersymmetrische fac-Isomer bildet, oder
ob ein Mechanismus aktiv ist, der alle Isomere auf der NMR-Zeitskala schnell ineinander
überführt, sodass die Gegenwart lediglich einer Spezies vorgetäuscht wird. In
elektrochemischen Untersuchungen zeigten die Komplexliganden mehrere irreversible
Oxidationswellen. Ob dieses Verhalten auf eine intramolekulare Kommunikation der
einzelnen redoxaktiven Gruppen zurückzuführen ist, müssen weitergehende Studien zeigen.
Als prinzipieller Beleg für die präparative Anwendbarkeit der Komplexliganden und
Grundlage für die Untersuchung der Koordinationschemie der oktaedrischen
Komplexliganden, wurden PdII-Komplexe von 89 und 93 synthetisiert.
Hintergrund: Die Therapie des elektrischen Sturms (ES), d.h. ≥3 ICD-Therapieabgaben wegen ventrikulärer Tachyarrhythmien (VT) innerhalb von 24 Stunden, besteht in der Beseitigung potenzieller reversibler Ursachen, der Gabe von Antiarrhythmika oder der Katheterablation (CA).
Ziel der Untersuchung war es, die unterschiedlichen Therapien des ES in Bezug auf Erfolg und Sicherheit zu analysieren.
Methoden: Alle ICD-Patienten, die zwischen 2000 und 2015 mit ES am Cardioangiologischen Centrum Bethanien behandelt wurden, wurden in die retrospektive Analyse eingeschlossen. Mittels elektronischer Datenbanksuche wurden potenzielle Patienten identifiziert und anhand der Krankenakte und der ICD-Auslesungen selektiert.
Neben demographischen Parametern wurden die prozeduralen Variablen der Ablationen analysiert. Alle CA wurden mit Hilfe eines 3D-Mappingsystems durchgeführt. Der Erfolg der CA wurde definiert als Nicht-Induzierbarkeit von VT durch programmierte Elektrostimulation von RVA und RVOT mit 2 Basiszykluslängen (510/440ms) und Ankopplung von bis zu 3 Extrastimuli bis zur jeweiligen Refraktärzeit.
Die Patienten wurden alle 6 Monate untersucht und der ICD-Speicher ausgelesen.
Der primäre Endpunkt war das ereignisfreie Überleben ohne adäquate ICD-Interventionen oder ES in einem Zeitraum von 12 Monaten nach Therapie des ES.
Ergebnisse: Insgesamt wurden 87 Patienten (mittleres Alter 71±9,6 Jahre; 89% männlich; LVEF 34,1%±13,3%) eingeschlossen, davon 58 konservativ und 29 per CA behandelt.
Die ICD-Implantation der Patienten in der CA-Gruppe lag länger zurück als die in der konservativen Gruppe (1868 Tage vs. 905 Tage; p = 0,0009).
Die CA war bei 26 Patienten (3 Therapieversager der kons. Gruppe einbezogen) erfolgreich. Dabei wurden im Mittel 2,6±1,8 VT abladiert. Hierzu war in 16,2% ein epikardiales Vorgehen notwendig. Die Prozeduren dauerten 153±47,5 min.
In der konservativen Gruppe hatten 15 (25,9%) Patienten eine reversible Ursache für den ES (Ischämie, Elektrolytstörung), außerdem wurden 34 (58,6%) mit Antiarrhythmika behandelt, davon 28 (48,3%) mit Amiodaron.
Der primäre Endpunkt wurde von 19 (32,8%) Patienten der konservativen und 13 (44,8%) der CA Gruppe erreicht (p = 0,35).
Es ergaben sich ebenfalls keine Unterschiede bzgl. der einzelnen Endpunkte Tod, VT-, ES- oder ICD-Schockrezidiv.
Im Falle einer erfolgreichen CA wurde der primäre Endpunkt signifikant häufiger erreicht (46,2% vs. 16,7%; p = 0,01; HR = 0,29; CI 0,11-0,75). Die Wahrscheinlichkeit das erste Jahr nach CA zu überleben war um 84% höher (88,5% vs. 50%; p = 0,01; HR = 0,16; CI 0,04-0,65).
Im Falle einer erfolgreichen CA ist die Wahrscheinlichkeit für das Überleben gegenüber einer Amiodarontherapie um 70% höher (88,5% vs. 64,3%; p= 0,07; HR = 0,30; CI 0,09-1,04).
Schlussfolgerung: Patienten mit einem ES können primär zu 81,3% mit einer CA erfolgreich behandelt werden. Wenn alle VT durch die CA eliminiert werden können, ist die CA einer konservativen Therapie mit Amiodaron in Hinblick auf das Überleben um 70% überlegen.
Als Sohn Therese Alzheimers geb. Busch (1840-1882) und des Notars Eduard Alzheimer (1830-1891) wurde Alois Alzheimer am 14. Juni 1864 in Marktbreit (Landkreis Kitzingen) geboren. Er hatte zwei Schwestern und drei Brüder sowie einen Halbbruder und eine Halbschwester. Als Zehnjähriger kam Alois Alzheimer nach Aschaffenburg und absolvierte bis Juli 1883 das Königliche humanistische Gymnasium, wie bereits sein Vater und dessen fünf Brüder. Nach dem Militärdienst in Aschaffenburg studierte Alois Alzheimer ab dem Wintersemester 1883 Medizin in Berlin, Tübingen und Würzburg. Nach dem Staatsexamen im Juni 1888 in Würzburg wurde er mit der Dissertation „Über die Ohrenschmalzdrüsen“ zum Dr. med. promoviert. Nach einer Assistentenzeit bei seinem Doktorvater Albert von Koelliker (1817-1905) begleitete er eine geisteskranke Dame auf ihren Reisen. Ende 1888 wurde Alois Alzheimer Assistenzarzt und 1895 Oberarzt in Frankfurt a. M. bei Emi Sioli (1852-1922), wo er ab Ende 1901 die erste bekannte Alzheimer-Kranke, Auguste Deter (1850-1906), behandelte.
Alois Alzheimer heiratete 1894 die Witwe Cecilie Geisenheimer geb. Wallerstein (1860-1901). Sie hatten drei Kinder: Gertrud Stertz geb. Alzheimer (1895-1980), Hans Alzheimer (1896-1981) und Maria Finsterwalder geb. Alzheimer (1900-1977). Alois Alzheimer hatte auch zwei Patenkinder: Alois Alzheimer (1892-1892) und Generaldirektor Dr. jur. Alois Alzheimer (1901-1987).
Alois Alzheimer (1864-1915) war ab 1903 Mitarbeiter Emil Kraepelins (1856-1926) in Heidelberg und München. Neben seiner ärztlichen Tätigkeit habilitierte sich alois Alzheimer 1904 mit der Arbeit „Histologische Studien zur Differentialdiagnostik der progressiven Paralyse“ habilitierte. Hierfür erhielt er im Januar 1912 in Leipzig den Paul-Julius-Möbius-Preis. Alois Alzheimer wurde 1904 Privatdozenten und 1909 außerordentlichen Professor in Bayern ernannt. In der im Herbst 1910 publizierten 8. Auflage seines Psychiatrie-Lehrbuchs, das im Herbst 1910 erschien, verwendete Emil Kraepelin erstmals das Eponym „Alzheimersche Krankheit“. Alois Alzheimer verdanken wir wesentlich mehr als diesbezügliche Forschungen und seine beiden Publikationen von 1906 und 1911 zu der später nach ihm benannten Krankheit, wodurch sein Name weltweit bekannt wurde und bis heute ist. Die von ihm bearbeiteten neurologischen und psychiatrischen Gebiete weisen kaum Überschneidungen auf. Er betrat mehrfach wissenschaftliches Neuland oder entwickelte Erkenntnisse weiter. Zu nennen sind hier u. a. seine Publikationen über Schizophrenie, Chorea Huntington, Epilepsie, Encephalitis, Erschöpfungspsychosen, manisch-depressives Irresein, Lumbalpunktion, Fetischismus, Indikationen für eine künstliche Schwangerschaftsunterbrechung bei Geisteskranken, Delirium, „geborene Verbrecher“, Alkoholkrankheit und Kriegsneurosen.
Zusammen mit seinem Chefarzt Emil Kraepelin behandelte Oberarzt Alois Alzheimer auch überegional bekannte Patienten wie den Nobelpreisträger Emil von Behring (1854-1917) und sog. „Wolfsmann“ Sergius Pankejeff (1887-1979) sowie das Vorbild für die „Clarisse in Robert Musils (1880-1942) Roman „Mann ohne Eigenschaften“, Alice Donath geb. Charlemont (1885-1939). Alois Alzheimer genoss schon zu Lebzeiten ein internationales Renommee. Gastärzte und Assistenten waren unter anderem Solomon Carter Fuller (1872-1953), Francesco Bonfiglio (1833-1966), Gaetano Perusini (1879-1915), Alfons Jakob (1884-1931) und Hans-Gerhard Creutzfeldt (1885-1961). Alois Alzheimer war ab 1910 zusammen mit Max Lewandowsky (1876-1918) Schriftleiter der neuen "Zeitschrift für die gesamte Neurologie und Psychiatrie".Im Juli 1912 wurde Alois Alzheimer ordentlicher Professor für Psychiatrie und Neurologie in Breslau und Chefarzt der Universitätsklinik. Er war zu Beginn des Ersten Weltkrieges auch im dortigen Festungslazarett eingesetzt.
Alois Alzheimer starb am 19. Dezember 1915 an Herzmuskelentzündung und Nierenversagen. Er wurde auf dem Hauptfriedhof in Frankfurt a. M. neben seiner Ehefrau beigesetzt.
In einem eigenen Kapitel werden die Geschichte der Alzheimer-Krankheit beleuchtet und aktuelle Erkenntnisse aufgezeigt. Die vorliegende Arbeit wird ergänzt durch relevante Hinweise auf die rechtliche Vorsorge durch eine Patientenverfügung und Vollmacht, ggf. die Errichtung einer Rechtlichen Betreuung, wenn ein/e Alzheimer-Kranke/r seine Angelegenheiten nicht mehr selbst regeln kann und in geistig gesunden Tagen keine schriftlichen Festlegungen getroffen hat. Erläutert werden ebenso Nachteilsausgleiche bei Schwerbehinderung sowie Hilfen bei Krankheit und Pflegebedürftigkeit: häusliche Pflege in Privatwohnungen oder Anlagen für Betreutes Wohnen, Tagespflege, Kurzzeitpflege und vollstationäre Dauerpflege in Seniorenheimen. Aufgezeigt werden auch Leistungen der Krankenkassen und Zuschüsse nach dem Pflegeversicherungsgesetz sowie bei Bedürftigkeit ergänzende Sozialhilfe zu erhalten.
Die vorliegende Dissertation gliedert sich in 2 Abschnitte: Im 1. Abschnitt wurden die Auswirkungen des Naturstoffs Phytol auf den Krankheitsverlauf des murinen EAE-Modells charakterisiert, während im 2. Abschnitt die immunmodulierenden Eigenschaften der neuartigen Leitsubstanzen Silvestrol sowie Steroid Substanz 1o untersucht wurden.
Vorarbeiten zeigten einen positiven Einfluss von Phytol auf den Krankheitsverlauf im murinen EAE-Modell für Multiple Sklerose, eine verringerte Proliferationsfähigkeit von Splenozyten sowie eine Regulation der NOX2 mRNA-Expression (Blum et al., 2018b).
In der vorliegenden Arbeit konnte nachgewiesen werden, dass die Gabe von Phytol den Prozess der Demyelinisierung im lumbalen Rückenmark deutlich reduzierte und die Anzahl der Immunzellen in den inguinalen Lymphknoten sowie im lumbalen Rückenmark signifikant verringerte. Weiterhin konnte eine Regulation der spezifischen T-Zell Transkriptionsfaktoren T Bet sowie Foxp3 nachgewiesen werden. Es zeigte sich, dass Phytansäure, nicht jedoch Pristansäure, die beiden Metaboliten von Phytol, die Proliferationsfähigkeit der T-Zellen signifikant verringerte. Beide Metaboliten zeigten zusätzlich unterschiedlichen Einfluss auf die T-Zell Subtypen. Hultqvist et al. konnten eine verstärkte Bildung von reaktiven Sauerstoffspezies (ROS) durch Phytol nachweisen (Hultqvist et al., 2006). Vorarbeiten zeigten eine Steigerung der mRNA-Expression des ROS-produzierenden Enzymkomplex NOX2 im Verlauf des EAE-Modells sowie eine Regulation der NOX2-Expression im lumbalen Rückenmark und in den inguinalen Lymphknoten durch Phytol (Blum et al., 2018b). Deshalb wurde die Rolle von NOX2 an den Phytol-vermittelten Effekten weiter charakterisiert. Dabei zeigte sich, dass die gesteigerte NOX2-Expression im lumbalen Rückenmark auf die eingewanderten Immunzellen zurückzuführen war. Die von NOX2 im zentralen Nervensystem (ZNS) gebildeten ROS, welche zur Schädigung der Myelinschicht beitragen können, wurden durch die Gabe von Phytol im lumbalen Rückenmark verringert. Untersuchungen in NOX2KO-Mäusen zeigten, dass die beobachteten ex vivo Effekte von Phytol sowie dessen Metaboliten nur teilweise NOX2-abhängig waren. Im murinen EAE-Modell mit NOX2KO-Mäusen zeigte Phytol weiterhin einen positiven Einfluss auf die klinischen Symptome. Auffällig war dabei, dass NOX2KO-Tiere grundsätzlich weniger klinische Scores zeigten als Wildtyp Tiere. In NOX2-Chimären hatte Phytol keinen signifikanten Einfluss auf den Krankheitsverlauf. Grund dafür könnte eine Beschädigung der Blut-Hirn-Schranke bei der Generierung der Chimären und eine damit verbundene verstärkte Infiltration von Immunzellen in das ZNS gewesen sein. Weiterhin konnte Phytol möglicherweise über die geschädigte Blut-Hirn-Schranke verstärkt in das ZNS eindringen und dort über eine gesteigerte ROS-Produktion zu schädigenden Effekten führen.
Die in vivo Daten weisen auf einen überwiegend NOX2-unabhängigen Wirkmechanismus von Phytol hin. Dennoch scheint NOX2 bei einigen Effekten zumindest beteiligt zu sein. Zusammenfassend zeigte die Gabe von Phytol einen überwiegend positiven Einfluss auf den Krankheitsverlauf im murinen EAE-Modell, dennoch ist die Phytol-vermittelte Induktion von NOX2 und die Bildung von ROS kritisch zu sehen, da diese sowohl positive als auch negative Effekte vermitteln und stark von der Quantität sowie der Lokalisation der Bildung abhängig sind.
Im 2. Teilprojekt wurden die immunmodulierenden Auswirkungen der neuartigen Leitsubstanzen Silvestrol sowie Steroid Substanz 1o charakterisiert. Der anti-viral wirksame Naturstoff Silvestrol zeigte dabei diverse Auswirkungen auf die Differenzierung sowie Polarisierung von humanen Makrophagen. Während der Differenzierung inhibierte Silvestrol das anti-inflammatorische bzw. resolutionsfördernde Potential der Makrophagen durch eine Reduktion der resolutionsfördernden Oberflächenmarker CD206 und TREM2. Weiterhin wurde die Sezernierung der anti-inflammatorischen Zyto- bzw. Chemokine IL-10 und CCL18 verringert. Der pro-inflammatorische Phänotyp von M1-Makrophagen wurde weiterhin durch die vermehrte Bildung von TNF-α unterstützt, während bei M2-Makrophagen der anti-inflammatorische bzw. resolutionsfördernde Phänotyp verstärkt wurde. In Dendritischen Zellen schien Silvestrol sowohl die Differenzierung als auch die Aktivierung zu inhibieren, da zahlreiche Oberflächenmarker und sezernierte Zytokine signifikant verringert wurden. Die Stoffwechselwege der oxidativen Phosphorylierung und der Glykolyse wurden sowohl in Makrophagen als auch in Dendritischen Zellen signifikant reduziert. Demnach ist unklar, ob in der Summe die pro- oder anti-inflammatorischen Aspekte von Silvestrol überwiegen und ob der Einfluss auf den Stoffwechsel die Immunantwort beeinträchtigt.
Der anti-parasitäre Wirkstoff Steroid Substanz 1o zeigte keinen negativen Einfluss auf die Viabilität in primären humanen Immunzellen bis zu einer Konzentration von 50 µM und verstärkte das pro-inflammatorische Profil von M1-Makrophagen. Weiterhin wurde der anti-inflammatorische bzw. resolutionsfördernde Phänotyp von M2-Makrophagen unterdrückt und stattdessen die pro-inflammatorischen Aspekte verstärkt. Diese Beobachtungen der veränderten Oberflächenmarker sowie der sezernierten Zytokine wurden weiterhin durch die Veränderung des zellulären Stoffwechsels gestützt. Dabei steigerte Steroid Substanz 1o die Glykolyse in M2-Makrophagen, welche eigentlich für M1-Makrophagen charakteristisch ist. Dadurch kann die Verschiebung der M2-Makrophagen zu einem M1-Phänotyp erklärt werden. Weiterhin beeinträchtigte Steroid Substanz 1o die Differenzierung und Aktivierung von Dendritischen Zellen. Zusammenfassend verstärkte Steroid Substanz 1o überwiegend die pro-inflammatorischen Aspekte der Immunreaktion durch eine Aktivierung der M1-Makrophagen. Bei der möglichen Anwendung als Therapeutikum für Malaria sowie Schistosomiasis kann somit das Immunsystem bei der initialen Abwehr der Parasiten unterstützt werden.
In der präoperativen Diagnostik fokaler maligner Leberläsionen nimmt die MRT mit Resovist® einen zunehmend höheren Stellenwert ein.
T2 gewichtete TSE- und FS-Sequenzen der Resovist® unterstützten MRT sind dabei sensitiver als die in der präoperativen Diagnostik etablierte CTAP mit Ultravist® 370, einem nichtionischen jodhaltigen Kontrastmittel.
Die visuelle Differenzierung und Charakterisierung fokaler maligner Leberläsionen und deren Abgrenzung vom Leberparenchym in der Resovist® unterstützten MRT kann durch die Analyse der Signalintensitätskurven optimiert werden. Eine effektivere Charakterisierung der fokalen Leberläsionen wirkt sich damit positiv auf die Sensitivität und Spezifität der SPIO verstärkten MRT aus.
Es bleibt daher offen, die Signalintensitäten der primären und sekundären Leberläsionen der hier nicht untersuchten Gewebearten in weiteren Studien zu analysieren.
Desweiteren könnten nachfolgende Untersuchungen das Ziel haben, die Sensitivität und Spezifität der Resovist® unterstützten MRT durch eine Verminderung der Schichtdicke zu verbessern, womit sich die Detektion von Läsionen < 1 cm effektiver gestalten würde.
Hintergrund: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen. Asthma-Exazerbationen sind ein häufiger Grund für Vorstellungen in der Notaufnahme und für Krankenhausaufenthalte. Die routinemäßige Gabe von Antibiotika bei einem akuten schweren Asthma wird von den Leitlinien nicht empfohlen, trotzdem erfolgt sie sowohl im ambulanten als auch im stationären Bereich. Das primäre Ziel dieser Promotion war es, die Häufigkeit der Gabe von Antibiotika während Asthma-Exazerbationen, die eingesetzten Antibiotikaklassen, den Einfluss des CRP Spiegels und die klinischen Kriterien, die zur Antibiotikagabe führten, zu analysieren.
Methoden: Es handelte sich um eine retrospektive Analyse von 660 Kindern und Jugendlichen im Alter von 6 bis 17 Jahren, die während eines Zeitraums von 10 Jahren (2008 - 2018) mit der ICD Diagnose Asthma Bronchiale (J.45) stationär am Universitätsklinik Frankfurt/Main stationär behandelt wurden. Akutes, schweres Asthma wurde definiert als Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Antibiotikagabe ohne Indikation wurde definiert als Gabe von Antibiotika bei einem CRP <2 mg/dl, keiner radiologischen Evidenz einer Pneumonie, oder keiner Indikation zur Durchführung eines Röntgenbildes und keinem anderen Grund zur Antibiotikagabe. Analysiert wurden u.a. Alter, Geschlecht, Intensivstationsaufenthalt, Liegedauer, Erstdiagnose oder bekanntes Asthma, Sauerstoffbedarf, Laborparameter, Lungenfunktion, Röntgen, Phänotypen, Therapie und Anzahl der Re-Hospitalisierungen.
Ergebnisse: 350 Aufnahmen erfüllten die Einschlusskriterien. Es erfolgte bei jüngeren Kindern häufig eine Antibiotikagabe (6 - 11 Jahre 57,6% und 12 - 17 Jahre 39,7%). Bei 26% der Aufnahmen wurde ein Antibiotikum ohne Indikation verabreicht, dabei waren Makrolide die häufigste Antibiotikaklasse. Die Gruppe der PatientInnen, die ein Antibiotikum ohne Indikation erhielten, unterschieden sich von der Gruppe, die kein Antibiotikum erhielten in Alter (9 ± 6 Jahre vs. 11 ± 6 Jahre; p-Wert 0,024), Sauerstoffbedarf (46,2% vs. 26,3%; p<0.001) und CRP-Wert (0,79 ± 0,92 mg/dl vs. 0,23 ± 0,46 mg/dl; p<0.001), aber nicht im Vorhandensein von Fieber (14,3% vs. 10,6%; n.s.). 10,3 % der PatientInnen wurden in den 10 Jahren re-hospitalisiert. Es fanden sich klinisch keine Unterschiede zwischen den re-hospitalisierten PatientInnen und den anderen Patienten.
Schlussfolgerung: Antibiotikagabe ohne klare Indikation während einem akuten, schweren Asthma war in unserer Kohorte häufig. Klinische Parameter einer schwereren Erkrankung beeinflussten die Entscheidung zur Antibiotikagabe, obwohl keine Hinweise auf eine bakterielle Infektion vorlagen und nicht zu einem verbesserten Outcome führten. Gründe der Re-Hospitalisierung von PatientInnen sollten weiter untersucht werden, mit besonderem Fokus auf ausreichende Allergiediagnostik und Evaluierung der Compliance.
In einer vorangegangenen Studie konnten bereits duale sEH / PPAR-Modulatoren identifiziert werden, welche allerdings nicht in vivo applizierbar waren 73. Der Vorteil des Multi-Target-Liganden Ansatzes konnte demnach nicht evaluiert werden. Das Ziel der folgende Arbeit beschreibt demnach Design, Synthese und Charakterisierung in vivo applizierbarer sEH / PPAR-Modulatoren. Dieser Prozess sollte in drei Phasen gliederte werden:
o Identifizieren einer geeigneten Strukturklasse
o Etablieren einer Struktur-Aktivitäts-Beziehung zu beiden Targets
o Leitstrukturoptimierung
Die gesuchte Zielverbindung sollte nach oraler in vivo Applikation eine ausreichend hohe Plasmakonzentration in vivo erreichen, um konzentrationsabhängig die Targets sEH und PPAR zu modulieren. Mit dieser Modellverbindung wäre es möglich eine vergleichbare Studie zur sEH / PPAR-Kombinationstherapie von Imig et al. 72, durchzuführen. Letztendlich könnte mit dem Vergleich dieser zwei Studien gezeigt werden, ob die simultane Modulation dieser zwei Targets das Potenzial besitzt mehrere Risikofaktoren zu therapieren.
Das wachsende Verständnis für das fein abgestimmte Zusammenspiel aus Struktur und Funktion von Nukleinsäuren resultiert aus unzähligen Forschungsprojekten. Forschende stehen dabei vor der Herausforderung, dass die zu untersuchenden Oligonukleotide sowohl modifiziert als auch in ausreichender Menge und Reinheit dargestellt werden müssen. Die chemische Festphasensynthese ist ein bewährtes Mittel zur Synthese hochmodifizierter DNA und RNA. Allerdings werden Oligonukleotide mit zunehmender Länge unzugänglicher, da die einzelnen Kupplungsreaktionen nicht quantitativ ablaufen, was zu schwer abtrennbaren Abbruchsequenzen führt. Hinzu kommt, dass während der chemischen Synthese harsche Reaktionsbedingungen nötig sind, denen die gewünschten Modifikationen standhalten müssen. (Chemo-) enzymatische Methoden können diese Hürden überwinden und somit den Zugang zu biologisch interessanten, längeren modifizierten Sequenzen ermöglichen. Jedoch erfolgt der enzymatische Einbau von Modifikationen ohne aufwendige Optimierung lediglich statistisch verteilt. Um weitere Erfolge im Bereich der Strukturaufklärung zu erzielen, werden somit Synthesemethoden benötigt, die sich zum positionsspezifischen Einbau von Modifikationen eignen und gleichzeitig den Zugang zu längeren Oligonukleotiden ermöglichen. Zur Untersuchung der Zusammenhänge zwischen Struktur und Funktion haben sich in den letzten Jahren lichtadressierbare Verbindungen als gefragte Modifikationen erwiesen. Der Einsatz von Licht als mildes, nicht-invasives Auslösesignal stellt besonders im biologischen Kontext eine interessante Herangehensweise dar. Um hochwertige Aussagen über das Verhalten von Oligonukleotiden in komplexer biologischer Umgebung machen zu können, muss durch die gezielte Platzierung lichtaktivierbarer Verbindungen ein effizientes AN/AUS-Verhältnis geschaffen werden. Der Einbau photolabiler Schutzgruppen erlaubt eine vorübergehende Beeinflussung der Oligonukleotidstruktur, die durch Abspaltung der Schutzgruppe irreversibel (re-) aktiviert werden kann. Im Gegensatz dazu ermöglicht der Einbau von Photoschaltern eine reversible Adressierbarkeit durch Isomerisierungsprozesse. Die Synthese komplexer gezielt-markierter Oligonukleotide erfolgt zumeist chemisch und ist daher längenlimitiert.
Ziel dieser Doktorarbeit war es, beide Fragestellungen zu vereinen und eine chemo-enzymatische Methode zur RNA-Synthese zu untersuchen, die zum einen die positionsspezifische Modifizierung mit lichtaktivierbaren Einheiten erlaubt und darüber hinaus die Längenlimitierung der chemischen Festphasensynthese überkommt. Im Zentrum der Methode stehen drei enzymatische Reaktionsschritte zum Einbau von photolabil- und photoschaltbar-modifizierten Nukleosid-3‘,5‘-Bisphosphaten: I) eine 3‘-Verlängerung, in der die modifizierten Bisphosphate mit T4 RNA Ligase 1 mit dem 3‘-Ende einer RNA verknüpft werden; II) die Dephosphorylierung des 3‘-Phosphats mit Shrimp Alkaline Phophatase und III) die Verknüpfung der 3‘-terminal modifizierten RNA mit einem zweiten 5‘-phosphorylierten RNA-Fragment, wodurch eine Gesamtsequenz mit gezielt platzierter Modifikation entsteht (Abb. I).
Im ersten Teilprojekt wurden in kollaborativer Arbeit zunächst benötigte photolabile NPE- und photoschaltbare Azobenzol-C-Nukleosid-3‘,5‘-Bisphosphate synthetisiert und grundlegende Bedingungen der enzymatischen Reaktionen erarbeitet. Hierbei konnte der enzymatische Syntheseansatz erfolgreich in Lösung umgesetzt und der chemo-enzymatische Einbau aller synthetisierten Bausteine nachgewiesen werden. Aufbauend auf diesen Erkenntnissen wurde die Methode in eigenständigen Arbeiten weiterverfolgt, um den multiplen Einbau NPE-modifizierter Nukleosid-3‘,5‘-Bisphosphate in direkter Nachbarschaft sowie deren Einbau in DNA/RNA-Mixmere mit Phosphodiester- oder Phosphorthioatrückgrat zu untersuchen. Es konnte gezeigt werden, dass die verwendeten Enzyme neben lichtaktivierbaren Modifikationen zusätzliche Anpassungen der Phosphateinheit sowie unterschiedliche Ribosebausteine in Kombination tolerieren. Da exogene RNA schnell von Exonukleasen abgebaut und somit unwirksam wird, werden zahlreiche stabilisierende Anpassungen an synthetischen RNAs vorgenommen. Zu den häufigsten zählen Phosphorthioate und Modifikationen der Ribose. Mit der erfolgreichen Modifikation der chimären Oligonukleotide eröffnet die erarbeitete Methode einen wichtigen Zugang zu therapeutisch interessanten Oligonukleotiden. Ein weiterer wichtiger Schritt in Richtung biologisch relevanter Anwendungsmöglichkeiten konnte mit der Synthese, Charakterisierung und Umsetzung eines DEACM-geschützten Uridin-3‘,5‘-Bisphosphates (pUDEACMp) errungen werden. Im Vergleich zur verwendeten NPE-Schutzgruppe ist das Absorptionsspektrum der DEACM-Schutzgruppe bathochrom-verschoben, was eine Abspaltung mit Wellenlängen > 400 nm erlaubt. Dadurch können Zellschäden vermieden und Oligonukleotide mit NPE- und DEACM-Modifikation wellenlängenselektiv angesprochen werden...
In den letzten 20 Jahren haben sich zunehmend Schülerlabore an Universitäten und Forschungszentren etabliert, um naturwissenschaftliche Kompetenzen von Schülern/innen aufzubauen und zu fördern. Das wachsende Feld der Schülerlaborforschung zeigt allerdings auf, dass die Eingangsvoraussetzungen, mit denen die Schüler/innen an der naturwissenschaftlichen Lernumgebung teilnehmen, einen starken Einfluss auf die Annahme sowie die Entwicklung von interessens-, selbstkonzept- und motivationsbezogenen Persönlichkeitsmerkmalen haben können. Diese Erkenntnisse lenken den Blick auf die Entwicklungsumwelt der Familien, in der die Eltern von Geburt an auf die kindliche Persönlichkeitsentwicklung und Lernprozesse einwirken. Die Integration des vielversprechenden familiären Kontexts in eine naturwissenschaftliche Lernumgebung wird seit 2008 anhand des Eltern-Kind-Projekts KEMIE® an der Ruhr-Universität Bochum umgesetzt, indem Eltern-Kind-Paare gemeinsam an alltagsnahen naturwissenschaftlichen Phänomenen experimentieren. Seit 2016 wird KEMIE® zudem an der Goethe-Universität Frankfurt am Main im Goethe-Schülerlabor Chemie durchgeführt.
Am Beispiel des Frankfurter KEMIE®-Projekts will die vorliegende Arbeit das Potential von Eltern-Kind-Interaktionen für naturwissenschaftliche Lernprozesse untersuchen. Mithilfe der Grounded-Theory-Methodologie wurde das zentrale Forschungsdesiderat der Eltern-Kind-Interaktion über die Projektjahre 2016/17 und 2017/18 herausgestellt sowie mögliche Erhebungsmethoden pilotiert. Im Projektjahr 2018/19 konnte dieses schließlich in einer Mixed-Methods-Studie multiperspektivisch beforscht werden. Dafür wurden Interviews, Beobachtungen und Pre-Posttest-Daten von 46 teilnehmenden Eltern-Kind-Paaren sowie weitere Kontrollgruppendaten von 202 Frankfurter Familien erhoben.
Um zunächst die naturwissenschaftliche Lernumgebung zu beschreiben, wurden die vorherrschenden Einflussfaktoren identifiziert, die zugehörigen Phänomene beschrieben sowie die prozess- und personenbezogenen Verhaltensmuster herausgestellt. Über letztere können die Eltern-Kind-Interaktionen in das SELE-Modell elterlicher Unterstützungsmaßnahmen eingeordnet werden, wobei sich das Ermöglichen von Selbsttätigkeit als herausragendes Merkmal für die naturwissenschaftliche Lernumgebung manifestiert. Zudem zeigt sich, dass das Projekt positive Effekte auf naturwissenschaftsbezogene Werteorientierungen der Kinder sowie deren Interesse an den Naturwissenschaften hat.
Anhand der Entwicklung eines induktiven Beobachtungsschemas, konnten die Familien schließlich über die Verhaltensmerkmale der Eltern-Kind-Interaktion gruppiert und Zusammenhänge zu sowohl den Vorbedingungen als auch den Konsequenzen für die psychischen Dispositionen der Kinder aufgedeckt werden. Erste Erkenntnisse dieser explorativen Erhebung zeigen, dass das akademische Selbstkonzept und die naturwissenschaftsbezogenen Werteorientierungen der Eltern und Kinder die Verhaltensmuster in der naturwissenschaftlichen Umgebung determinieren. Auf der anderen Seite können die Kinder gerade hinsichtlich dieser beiden Faktoren am meisten profitieren. Dabei können diese positiven Effekte auf eine Regulation seitens der Eltern, das gemeinsame Ausführen von Tätigkeiten sowie den Einbezug in die Gestaltung der Lernumgebung zurückgeführt werden.
Der Einfluss von Trauma-aktiviertem platelet-rich fibrin auf mesenchymale Stammzellen in vitro
(2023)
Ziel dieser Arbeit war es, die Wechselwirkung zwischen MSC und PRF von Traumapatienten herauszuarbeiten und zu überprüfen, ob ein therapeutischer Einsatz der Kombination von MSC und Trauma-aktiviertem PRF in Frakturen sinnvoll erscheint.
Hierfür wurden MSC mit PRF über einen Zeitraum von 24 oder 120 Stunden co-inkubiert und die metabolische Aktivität, definierte Faktoren im Überstand (IL-6, CXCL10, VEGF und IDO-2) und die Genexpression ausgewählter Faktoren (MAPK8, MAPK14, IL-6, CXCL10,IDO-1, TNFAIP6, VEGFA, RUNX2 und COL1A) in bis zu drei Messzeitpunkten überprüft. Die Versuche erfolgten vergleichend mit Traumapatienten und gesunden Probanden.
Es konnte gezeigt werden, dass Trauma-aktiviertes PRF verglichen mit PRF von gesunden Probanden die metabolische Aktivität von MSC nach 120 Stunden erhöhen kann. Zudem stellten sich erhöhte Werte des inflammatorischen Faktors IL-6 im Überstand bei Traumapatienten nach 24 und 72 Stunden dar, welche bis zum dritten Messzeitpunkt nach 120 Stunden wieder abfielen. Ein ähnlicher Verlauf zeigte sich bei den Messwerten von VEGFA, einem Faktor, welcher eine große Rolle bei der Angiogenese spielt.
Über alle Messzeitpunkte hinweg konnten niedrigere Werte in der Genexpression von COL1A und RUNX2 im Vergleich zu den Kontrollmessungen erfasst werden.
Die Ergebnisse zeigen, dass im Vergleich zu PRF gesunder Probanden Trauma-aktiviertes PRF die Möglichkeit besitzt, die Proliferation von MSC zu stimulieren. Außerdem wurde beobachtet, dass Trauma-aktiviertes PRF ein inflammatorisches und angiogenetisches Potenzial nach 72 Stunden besitzt, welches nach 120 Stunden allerdings wieder abfällt. Möglicherweise kann durch den Einfluss von MSC der Inflammation entgegengewirkt werden. Ein signifikantes osteogenes Potenzial des Trauma-aktivierten PRFs konnte zu keinem Messzeitpunkt nachgewiesen werden.
Inwiefern der Einsatz von MSC in Kombination mit Trauma-aktiviertem PRF die Frakturheilung verbessern kann, konnte in der vorliegenden Studie nicht eindeutig geklärt werden. Es kann allerdings davon ausgegangen werden, dass die Implantation von Trauma-aktiviertem PRF und MSC in den Defekt erst nach Verstreichen einer bestimmten Zeitperiode nach dem Trauma durchgeführt werden sollte. Die Gründe für diese Annahme sind das erhöhte proliferative und verringerte inflammatorische Potenzial im Verlauf. Eine Ursache für das Fehlen der osteogenen Differenzierung der MSC kann der kurze Messzeitraum sein.
Weitere Studien sollten folgen, um das Potenzial der Kombination von MSC und Trauma-aktiviertem PRF als therapeutisches Verfahren zu überprüfen.
Als Plasmafenster wird ein Aufbau bezeichnet, welcher zwei Bereiche unterschiedlicher Drücke voneinander trennt, Teilchenstrahlen jedoch nahezu verlustfrei passieren lässt.
Diese Anwendung einer kaskadierten Bogenentladung wurde von A. Hershcovitch vorgeschlagen.
Im Rahmen dieser Arbeit wurde ein solches Plasmafenster mit Kanaldurchmessern von 3.3 mm und 5.0 mm aufgebaut sowie die erreichbaren Druckunterschiede untersucht.
Auf der Bestimmung des Einflusses der Plasmaparametern und deren Abhängigkeit von äußeren Parametern auf die erreichbare Trennung der Druckbereiche liegt der Schwerpunkt dieser Arbeit.
Ein ausgeklügeltes optisches System ermöglicht die simultane Aufnahme mehrerer Spektren entlang der Entladungsachse, welche die gleichzeitige Bestimmung der Elektronendichte und -temperatur ermöglichen.
Für die Analyse der Plamaparameter aus über 6700 Spektren wird eine selbst entwickelte Software genutzt.
Die gemessenen Elektronendichte reicht von 8e14 cm^-3 bis zu 4.2e16 cm^-3.
Sie skaliert sowohl mit der Entladungsstromstärke als auch dem Teilchenfluss.
Für die Elektronentemperatur stellen sich Werte zwischen 1 eV und 1.3 eV ein, sie variiert nur leicht mit der Stromstärke und dem Teilchenfluss.
Wie später gezeigt wird, stimmen die hier präsentierten Daten gut mit Ergebnissen aus Simulationen und Experimenten anderer Arbeitsgruppen überein.
Als Betriebsgas wurde eine 98%Ar-2%H2 Mixtur genutzt, da die Stark-Verbreiterung der H-beta-Linie sowie die physikalischen Eigenschaften von Argon gut beschrieben sind und somit eine akkurate Elektronendichte- und -temperaturbestimmung ermöglichen.
Während die Drücke auf der Niederdruckseite einigen mbar entsprechen, werden auf der Hochdruckseite Drücke bis zu 750 mbar bei Teilchenflüsse zwischen 4.5e20 s^-1 und 18e20 s^-1 sowie Stromstärken von 45 A bis 60 A erreicht.
Die erzielten Druckverhältnisse entsprechen Werten zwischen 40 und 150, was eine Steigerung um einen Faktor von bis zu 12 gegenüber dem Druckverhältnis einer einfachen differentiellen Pumpstufe entspricht.
Zusätzlich zur Trennung der Druckbereiche kann am vorgestellten Experiment die Starkverbreiterung von Emissionslinien untersucht werden.
Vorteilhaft gegenüber anderen Aufbauten ist hier die Möglichkeit, zeitgleich Spektren unterschiedlicher Elektronendichten aufzunehmen.
Die entwickelte Software ist in der Lage, akkurate Halbwertsbreiten zu bestimmen und daher für eine solche Anwendung gut geeignet.
Alleinstellungsmerkmale dieses Aufbaus sind unter anderem die angesprochene Möglichkeit der simultanen Bestimmung von Plasmaparamertern und Linienverbreiterungen sowie der Verzicht auf Keramikisolatoren zwischen den Kühlplatten des Aufbaus.
Optische Analysen ergaben keine signifikante Schädigung der Bestandteile des Aufbaus nach einer Betriebsdauer von über 10 h; einzig die Kathodenspitzen müssen alle 5 h ausgetauscht werden.
Im Rahmen der hier vorgestellten Arbeit wurden eine Master- sowie Bachelorarbeit betreut und erfolgreich zum Abschluss gebracht.
Wie im Rahmen dieser Arbeit gezeigt, ist das entwickelte Plasmapfenster in der Lage, zwei Bereiche unterschiedlicher Drücke zu trennen und diese Trennung sicher aufrecht zu erhalten.
Die zugrundeliegenden Plasmaparameter sind erforscht und ihr Einfluss auf die Trennungseigentschaft des Plasmafensters beschrieben.
Als nächsten Schritt bietet sich die Erschließung technischer Einsatzmöglichkeiten des Plasmafensters an, so könnte dieses als Plasmastripper oder zum Schutz einer Beschleunigerstruktur vor durch Kollisionsexperimente entstandene radioaktive Isotope oder Sekundärteilchen.
Der Goldstandard zur Detektion eines erhöhten intrakraniellen Drucks ist das invasive Monitoring, z. B. mittels externer Ventrikeldrainage bei Intensivpatienten bzw. die Lumbalpunktion mit Messung des Liquoreröffnungsdrucks. Die am häufigsten angewendete klinische Untersuchung zum Ausschluss eines erhöhten ICP ist die Funduskopie. In den letzten 30 Jahren wurden zwei ultraschallbasierte Untersuchungsmethoden beschrieben um einen erhöhten ICP zu detektieren und die Funduskopie zu diesem Zweck zu ersetzen. Das Ziel unserer Studie war es, die Messung des Durchmessers der Sehnervenscheide (optic nerve sheat diameter, ONSD), der Undulation des Septum pellucidum (septum pellucidum undulation, SPU) hervorgerufen durch passive Rotation des Kopfes, und die Funduskopie mit einer invasiven Hirndruckmessung zu vergleichen. Der ONSD wurde mittels transbulbärer B-Mode Sonographie gemessen, für die Ermittlung der SPU wurde eine transtemporale M-Mode Sonographie durchgeführt. Zunächst schlossen wir gesunde Probanden ein, um die intrarater- und interrater- Reproduzierbarkeit der Ultraschalluntersuchungen zu berechnen. Die intrarater Reproduzierbarkeit des ONSD betrug 0,65 bis 0,84 und die interrater Reproduzierbarkeit war zwischen 0,69 und 0,91 (n=10). Die intrarater Reproduzierbarkeit der SPU war 0,29 und die interrater Reproduzierbarkeit ergab 0,26 (n=15). Anschließend untersuchten wir 45 Patienten, die für eine invasive Hirndruckmessung vorgesehen waren. Auch hier ermittelten wir die SPU und den ONSD, zusätzlich erfolgte die Funduskopie zum Ausschluss oder Bestätigung einer Stauungspapille. Die Sensitivität und Spezifität der drei Untersuchungen zur Ermittlung einer Erhöhung des intrakraniellen Drucks auf über 20 cm H2O wurden berechnet. Die Sensitivität der Funduskopie betrug 87,5% bei einer Spezifität von 25%. Im Vergleich hierzu betrug die Sensitivität der beiden Sonographieverfahren in Kombination 80% bei einer Spezifität von 100%. Die Ergebnisse der Studie zeigen, dass es zusätzlich zur Funduskopie sensitive und spezifische klinische Untersuchungsmethoden gibt zur Detektion eines erhöhten intrakraniellen Drucks im Alltag. Die Messung des ONSD und der SPU können nützliche Alternativen zur Funduskopie darstellen, optimalerweise in Kombination.
Adaptormoleküle zur Rekrutierung von Transkriptionsfaktoren oder miRNAs an nicht native Bindestellen
(2020)
Die Kontrolle der Genexpression ist eines der großen Ziele der chemischen Biologie. Gemäß dem klassischen Dogma der Molekularbiologe verläuft der Fluss der genetischen Information über die Transkription von DNA zur messenger RNA (mRNA) und durch die Translation von mRNA zu Proteinen. Auch wenn der ursprünglichen Formulierung dieses Dogmas verschiedene Aspekte hinzugefügt wurden, bleibt die Kernaussage unverändert. Eine Störung der Genexpression ist in vielen Fällen die Ursache für schwerwiegende Erkrankungen. Klassische Therapeutika, die im Allgemeinen aus kleinen Molekülen bestehen, können pathogene Proteine spezifisch binden und inhibieren. Allerdings greifen diese Wirkstoffe am Ende der Produktionskette ein und nicht alle Proteine können adressiert werden. Im Gegensatz dazu könnte ein Eingriff auf der Ebene der Transkription oder Translation die Expression der pathogenen Proteine auf ein normales Maß senken oder ganz verhindern. Als entscheidende Regulatoren der Genexpression stellen Transkriptionsfaktoren (TFs) einen interessanten Angriffspunkt zur Kontrolle der Transkription dar. TFs können über den Kontakt zu weiteren Proteinen die RNA Polymerase II rekrutieren und so die Transkription starten. Für die Translation ist die Halbwertszeit der mRNA ein entscheidender Faktor. Die Lebensdauer wird durch eine Vielzahl an Proteinen und micro RNAs (miRNAs) reguliert. MiRNAs sind kurze Oligonukleotide, die in Argonautproteine eingebaut werden können. Die daraus resultierenden RNA-induced silencing complexes (RISCs) sind in der Lage, den Abbau der mRNA einzuleiten. Sowohl TFs als auch RISCs besitzen dabei Nukleinsäure-bindende Untereinheiten, die mit spezifische Sequenzen assoziieren. In gewisser Weise ist die molekulare Erkennung der Nukleinsäuren vergleichbar mit einer Postsendung, die aufgrund der Adresse korrekt zugestellt wird. Um in diesem Bild des täglichen Lebens zu bleiben: Bei einem Wechsel des Wohnorts ist es üblich, einen Nachsendeauftrag zu stellen. Dabei wird die alte Anschrift auf den Postsendungen mit einem neuen Adressetikett überklebt und die Zustellung erfolgt an den neuen Wohnort. Das zentrale Thema dieser Dissertation ist, dieses „Umetikettieren“ auch auf TFs und RISCs zu übertragen. Hierbei ist es notwendig, die Nukleinsäure-bindenden Untereinheiten der Komplexe, also die „alte Adresse“, vollständig zu blockieren und gleichzeitig eine hohe Affinität zu einer neuen Sequenz zu erzeugen. Hierzu könnten bifunktionale Adaptormoleküle verwendet werden.
Die Adaptoren für die Rekrutierung von TFs müssen in der Lage sein, sowohl die doppelsträngige DNA (dsDNA) als auch einen TF zu binden (Abbildung I). Dabei sollte eine Selbstbindung des Adaptors vermieden werden. In dieser Arbeit wurde der TF Sp1 als Ziel gewählt, da er an GC-reiche dsDNAs bindet. Dies ermöglicht die Wahl einer AT- oder GA reichen DNA-Sequenz als Ziel der Umleitung, wodurch eine Selbstbindung des Adaptors minimiert werden sollte. Zur Erkennung der DNA war geplant, Pyrrol-Imidazol-Polyamide (PIPs), triplexbildende Oligonukleotide (TFOs) oder pseudokomplementäre PNAs einzusetzen. Für Letztere war es möglich, eine neue Syntheseroute zu einem Fmoc geschützten Thiouracil-Monomer zu entwerfen. Dabei konnte eine selektive Alkylierung an der N1-Position des Thiouracils durchgeführt werden. Auf Basis der PIPs und der TFOs wurden jeweils verschiedene Adaptoren entworfen, deren Bindung zu ihren Zielen mit Band-Shift-Experimenten und im Fall der PIPs zusätzlich mit fluoreszenzbasierten Pulldown-Experimenten gezeigt wurde. Im Rahmen dieser Versuche zeigte sich, dass die PIP-basierten Systeme deutlich besser an die Zielsequenzen banden als die TFO-basierten Adaptoren. Das Konjugat K5a besaß hierbei die besten Eigenschaften. Weiterhin konnte mit diesem Adaptor in Pulldown-Experimenten gezeigt werden, dass Sp1 auf eine nicht kanonische AT-reiche Bindestelle umgeleitet wurde. Im Anschluss konnte das Sp1 in Western-Blots detektiert werden. Des Weiteren ließ sich zeigen, dass K5a in einem HeLa Lysat über mehrere Stunden stabil war und somit eine Anwendung in Zellkulturexperimenten möglich sein sollte.
Für die Rekrutierung der RISCs war lediglich eine Erkennung zweier einzelsträngiger RNA-Abschnitte notwendig. Hierzu wurden zwei LNAs oder LNA/DNA-Mixmere verwendet, die über einen Linker verknüpft waren (Abbildung I). Als Folge dieses Aufbaus mussten die beiden Adaptorhälften orthogonal sein, da eine Selbstbindung des Adaptors leichter als bei den TF-Adaptoren auftreten konnte. Diese Adaptoren wurden mit Band-Shift- und fluoreszenzbasierten Pulldown-Experimenten auf ihre Fähigkeit, eine Cy5-gelabelte miRNA auf eine Ziel-RNA umzuleiten, überprüft. Es konnte beobachtet werden, dass all-LNA Adaptoren sehr viele off-target-Effekt aufwiesen, welche die Umleitung von miRNAs verhinderte. Im Gegensatz dazu konnten mit DNA/LNA-Mixmeren eine vollständige Umleitung von miRNA-Modellen beobachtet werden. Es war ebenfalls möglich, spezifische RISCs aus HeLa-Lysaten mit unterschiedlichen Adaptoren in Pulldown-Experimenten zu isolieren und in nachfolgenden Western-Blots zu detektieren. Nachdem gezeigt war, dass eine Umleitung in vitro gelang, sollte die Funktion der Adaptoren in Zellkulturexperimenten geprüft werden. Allerdings konnten in diesen Versuchen keine eindeutigen Ergebnisse erhalten werden, sodass die biologische Relevanz der RISC-Umleitung bislang noch nicht bestätigt werden konnte.
Therapierefraktärer Schmerz ist ein weit verbreitetes, äußerst belastendes Leitsymptom rheumatischer Erkrankungen. Viele Betroffene weichen daher bei Versagen der Standardmedikation selbstständig auf Cannabis oder die strukturell verwandte Substanz Palmitoylethanolamid (PEA) als Add-On- oder Alternativtherapie aus, obwohl dies in Deutschland bisher nur eingeschränkt zulässig ist. Die deutsche Gesetzgebung ist diesbezüglich nicht eindeutig, weshalb Ärzt:innen in ihrer Entscheidung, Cannabis zu verschreiben, auf Leitlinien, Fallberichte und Expert:innenmeinungen zurückgreifen müssen. Dies führt zu schwierigen Einzelfallentscheidungen, da sich die derzeitige Datenlage zu Cannabis-based Medicine (CBM) bzw. PEA und Rheuma als mangelhaft darstellt und die Leitlinien dementsprechend keine klaren Empfehlungen enthalten. Ziel der vorliegenden Arbeit ist es, die vorhandene Evidenz zusammenzufassen, zu ordnen und anhand der Hill-Kriterien den möglichen kausalen Zusammenhang zwischen der Einnahme von CBM bzw. PEA und der analgetischen Wirkung bei Rheumaschmerzen zu prüfen.
Ziele: In dieser Arbeit sollte die Wirkung von Cyclopamin auf das Wachstumsverhalten von Leukämiezellen untersucht werden. Dabei galt es zu klären, ob eine Hemmung des Wachstumsverhaltens über eine, durch Cyclopamin induzierte Inhibition des sogenannten Hedgehog-Signalweges erfolgt. Weiterhin war die Wirkung von Cyclopamin auf Lymphozyten gesunder Spender zu prüfen, um eine mögliche Selektivität auf maligne Zellen aufzuzeigen.
Der römische Kaiser Claudius, dritter Prinzeps nach Augustus, regierte von 41 – 54 n. Chr. und wurde vermutlich von Agrippina, seiner letzten Ehefrau, mit einem Pilzgericht vergiftet. Obwohl er wegen seiner angeborenen Körperbehinderung als dynastischer Nachfolger nicht vorgesehen war, folgte er C. Caligula unmittelbar nach dessen Ermordung auf den Kaiserthron.
Die dem Amt inhärenten strukturellen Schwierigkeiten wurden verstärkt durch seine imbecillitas, die nicht nur Seneca, seinen Zeitgenossen, sondern auch Tacitus, Sueton und Cassius Dio, die ihn nachfolgend zum Sujet ihrer Werke machen, erheblich verunsicherte.
Besonders die Vertreter der antiken Historiographie und Biographie stehen vor der Herausforderung, glaubhaft erklären zu müssen, warum ein imbecillus, der Gegenentwurf zu Augustus, an die Macht gelangen und sie 13 Jahre behalten konnte, ohne unterschiedlich motivierten Anschlägen zum Opfer zu fallen. Aus dieser Diskrepanz entstehen – abhängig von der persönlichen Vorstellung des jeweiligen Autors und den gesellschaftlich bedingten Vorurteilen über Behinderung – unterschiedliche Bilder, die nicht nur das Dilemma des behinderten Kaisers, sondern auch das seiner Interpreten illustrieren: Claudius tritt, je nach Situation und Interaktionspartnern, als willenlos Re-agierender oder als taktisch Agierender auf: Als Regierenden hingegen zeigen ihn die Berichte gar nicht oder selten. Unberechenbarkeit, Übertreibung und Wiederholung werden für die antiken Schriftsteller zum Herrschafts- und Persönlichkeitsmerkmal des Prinzeps, die Antithese zum Narrativ.
Das essentielle Kommunikationsproblem des behinderten Claudius scheint, folgt man den Berichten, aus einem bewussten oder charakterbedingten Verzicht auf die patria potestas zu resultieren, mit katastrophalen Auswirkungen auf sein Ansehen als Prinzeps. Die von allen Autoren kritisierte Abhängigkeit von den Mitgliedern seines Hofes, zu deren prominentesten Opfern die junge und unerfahrene Messalina und letztlich Claudius selbst zählen, erregt Spott und Unmut der Plebs und verunsichert die Aristokratie durch eine als willkürlich empfundene Rechtsprechung.
Andererseits verweisen die Darstellungen seiner erstaunlichen Amtserhebung, des siegreichen Britannienfeldzugs, des abrupten Sturzes Messalinas, aber auch Agrippinas plötzlicher Angst, die sie zum Gattenmord veranlasst, auf einen Kaiser, der bei Bedarf offenbar recht gezielt das Klischee des imbecillus als Mittel des Machterhalts zu bedienen vermag.
So entsteht aus Claudius, abhängig vom gesellschaftlichen Status Behinderter, in den antiken und modernen Schriften, die sich mit ihm und seiner Amtsführung befassen, die paradoxe Figur eines schuldigen Opfers bzw. unschuldigen Täters: Sowohl Opfer- als auch Täterrolle sind a priori durch die Behinderung gerechtfertigt und relativiert.
Ein Finite-Volumen-Modell des differentiell geheizten rotierenden Annulus wird verwendet, um die spontane Schwerewellenabstrahlung durch die großskalige, von baroklinen Wellen beherrschte Strömung zu untersuchen. Bei diesem Vorgang bilden barokline Wellen und der durch sie abgelenkte und verzerrte Strahlstrom, die sich näherungsweise im hydrostatischen und geostrophischen Gleichgewicht befinden, durch ihre Dynamik Ungleichgewichte aus, die sich als Schwerewellen ausbreiten. Neben der Anregung von Schwerewellen durch Prozesse wie Gebirgsüberströmung, Konvektion und Frontogenese, bildet dieser Vorgang vermutlich eine weitere wichtige Quelle von Schwerewellen in der Atmosphäre. Anders als für orographisch und konvektiv angeregte Schwerewellen gibt es für die spontane Schwerewellenabstrahlung bislang keine befriedigende Parametrisierung in Wettervorhersage- und Klimamodellen, die diesen Prozess nicht auflösen können. Die Durchführung von Messungen zur spontanen Schwerewellenabstrahlung in der Atmosphäre ist üblicherweise sehr aufwendig, sodass die Untersuchung dieses Vorganges in einem wiederholbaren und steuerbaren Laborexperiment reizvoll erscheint. Ob dafür möglicherweise das Experiment des differentiell geheizten rotierenden Annulus infrage kommt, untersuchen wir mit einem eigens dafür entwickelten numerischen Modell, dessen Tauglichkeit wir zunächst im Rahmen einer Validierung durch den Vergleich mit Labormessungen überprüfen. Damit die Ergebnisse zur Schwerewellendynamik im Annulus auf die Atmosphäre übertragbar sind, verwenden wir eine neue, atmosphärenähnliche Annuluskonfiguration. Im Gegensatz zu den klassischen Annuluskonfigurationen ist in der neuen Konfiguration die Brunt-Väisälä-Frequenz größer als der Coriolis-Parameter, sodass die Schwerewellen ein ähnliches Ausbreitungsverhalten zeigen sollten wie in der Atmosphäre. Deutliche Hinweise auf eine Schwerewellenaktivität in der atmosphärenähnlichen Konfiguration geben die horizontale Geschwindigkeitsdivergenz und eine Normalmodenzerlegung der kleinräumigen Strukturen der simulierten Strömung. Um der Herkunft der beobachteten Schwerewellen auf den Grund zu gehen, zerlegen wir die Strömung in den schwerewellenfreien quasigeostrophischen Anteil und den schwerewellenenthaltenden ageostrophischen Anteil. Bereiche innerhalb der baroklinen Welle, in denen ein erhöhter spontaner Antrieb des ageostrophischen Anteils durch die quasigeostrophische Strömung beobachtet wird, fallen mit Bereichen erhöhter Schwerewellenaktivität zusammen. Dies deutet darauf hin, dass die spontane Schwerewellenabstrahlung auch im Annulus zum Schwerewellenfeld beiträgt, sodass dieses Experiment als Labormodell dieser Schwerewellenquelle für deren weitere Erforschung geeignet erscheint.
Der hämorrhagische Schock mit nachfolgender Reperfusion induziert eine Inflammationsreaktion, die in hepatozellulären Schäden, Organversagen und / oder Mortalität enden kann. Vorherige Studien können eine antiinflammatorische Wirkung des Simvastatins bei akuter Inflammation zeigen. Ziel der vorliegenden Arbeit ist es darzustellen, ob Simvastatin durch seine pleiotropen Effekte gemeinsam mit der Reduzierung des Leberschaden und des Inflammationsgeschehen, die Letalität nach H/R im Tiermodell verringern kann.
Als methodischer Ansatz dient ein H/R-Modell an weiblichen LEWIS-Ratten. Nach 6-tägiger intraperitonealer Vorbehandlung mit Simvastatin (5 mg / kg) wird ein 60 minütiger hämorrhagischer Schock (Blutdruck 30 ± 2 mm Hg) induziert und durch eine Reperfusion beendet. Nach 2 Stunden werden Gewebe- und Blutproben entnommen, nach 72 h die Mortalität beurteilt. Die Beurteilung der hepatozellulären Schädigung erfolgt durch die Messung der ALT-Serumkonzentration sowie durch die histopathologische Auswertung repräsentativer Leberschnitte nach HE-Färbung. Apoptotische und nekrotische Zelluntergänge (TUNEL- und M30-Färbung) sowie die lokale als auch systemische Immunantwort (CAE-Färbung und Messung der Serum IL-6 Konzentration) werden untersucht. Der im Lebergewebe bei H/R entstehende oxidative und nitrosative Stress lässt sich durch die 4-HNE- und 3-NT Färbung, die hepatische Umgestaltung des Aktin-Zytoskeletts mittels Alexa Fluor Phalloidin® sichtbar machen. Die ROCK-I, HO-1, eNOS sowie die eNOS (p) Aktivität werden mit Hilfe des Western Blots analysiert. Ein p < 0.05 wird als signifikant erachtet (ANOVA).
Die Neugestaltung des Zytoskeletts, apoptotische und nekrotische Vorgänge, proinflammatorische Signalwege, die Expression der Enzyme Hämoxygenase-1, endotheliale Stickstoffsynthase und RhoKinase-1 sowie oxidativer und nitrosativer Stress werden durch Simvastatin positiv beeinflusst und dadurch wird die Mortalität signifikant reduziert. Die Enzyme ROCK-I, HO-1 und eNOS sind bei den beteiligten Signalkaskaden von entscheidender Rolle.
Die gegenwärtige Studie zeigt, dass Simvastatin neben den bereits bekannten lipidsenkenden Eigenschaften noch weitere pleiotrope Effekte besitzt, die das Ausmaß der systemischen Inflammationsreaktion sowie die Mortalität nach einem hämorrhagischen Schock deutlich beeinflussen. Der Schlüssel zu einer geringeren Sterblichkeit liegt nach unseren Untersuchungen im Erhalt der hepatischen Integrität. Diese viel versprechenden Ergebnisse könnten mit die Grundlage eines möglichen therapeutischen Ansatzes in der Verhinderung der Folgen von H/R bilden.
Ziel der vorliegenden In-vitro-Untersuchung war der Vergleich drei unterschiedlicher maschineller Nickel-Titan-Wurzelkanalinstrumente bezüglich ihres Vermögens, künstliche Wurzelkanäle mit einem standardisierten Krümmungsradius von 36° nach der Crown-downMethode aufzubereiten. Die verwendeten Systeme waren Profile .04- und Profile .06-Feilen, sowie Mity -Roto-Feilen; angetrieben wurden die Instrumente mit dem ATR Tecnika Motor, einem drehmomentbegrenztem, computergesteuerten Endodontiemotor. Insgesamt wurden vom selben Behandler 60 Kanäle aufbereitet, nachdem diese zuvor in drei Gruppen aufgeteilt wurden: Gruppe 1 wurde ausschließlich mit Profile .04-Instrumenten aufbereitet, Gruppe 2 mit Mity-Roto-Feilen und Gruppe 3 in der Kombination Profile .04-, sowie Profile .06-Feilen. Die einzelnen Kanäle wurden in Hinsicht der Parameter Aufbereitungszeit, Arbeitslängenverlust, Gewichtsverlust, Instrumentenfraktur, sowie Veränderungen der Kanalanatomie miteinander verglichen. Durch Übereinanderprojektion von DiapositivAufnahmen vor und nach Aufbereitung erfolgte die Auswertung der Veränderung der Kanalanatomie.
Hinsichtlich der Aufbereitungszeit gab es zwischen den Systemen Mity-Roto und Profile .04/06 keine statistisch signifikanten Unterschiede.
Die besten Ergebnisse bezüglich Verlust von Arbeitslänge wurden mit den Mity-Roto-Feilen erzielt. Bei allen 20 Kanälen wurde nach der Aufbereitung die volle Arbeitslänge wieder erreicht. Im Gegensatz dazu ergaben sich bei der Aufbereitung mit Profile .04-Instrumenten in allen 20 Kanälen Arbeitslängenverluste, diese betrugen im Mittel 2,8 mm. Mit nur 0,3 mm mittleren Verlusts an Arbeitslänge unterscheidet sich die Profile .04/06-Gruppen nicht statistisch signifikant von der Mity-Roto-Gruppe, es gilt aber hierbei zu berücksichtigen, dass die von einer Fraktur betroffenen Kanäle nicht in die statistischen Auswertungen einbezogen wurden. Insgesamt wurde bei der Kombination der Instrumente Profile .04 und .06, d.h. in Gruppe 3, bei ca. der Hälfte der Kanäle die ursprüngliche Arbeitslänge nicht erreicht.
Die Auswertung dieses Parameters weist darauf hin, dass eine Kombination der Profile .04-Instrumente mit den stärker konischen .06-Instrumenten für die oberen Kanalanteile zu einer Verbesserung der Ergebnisse führt. Demgegenüber sind die Mity-Roto-Instrumente mit ihrem 2-prozentigem Konus in der Lage, auch ohne den zusätzlichen Einsatz eines stärker konischen Instruments für den Kanaleingang bei allen Kanälen die Ursprungsarbeitslänge zu erreichen. Bei den Werten für den Gewichtsverlust nach Aufbereitung unterschieden sich die drei Aufbereitungsmethoden statistisch nicht voneinander.
Bei sechs von 60 aufbereiteten Kanälen ergaben sich Frakturen, dies entspricht einer Frakturrate von 10 %. Absolut gesehen traten nur bei den Profile 04-Instrumenten Frakturen auf, jeweils drei bei der Profile .04- Gruppe und ebenfalls drei bei der Profile .04/06-Gruppe. Häufigste Frakturstelle war das apikale Drittel des 16 mm langen Arbeitsteils der Feile. Betroffen waren vor allem die Feilen stärkeren Durchmessers, insbesondere kam es bei der Feile # 30 in vier Fällen zu einer Fraktur. Die Mity-Roto-Feilen verfügen über eine hohe Arbeitssicherheit, in keinem der 20 Wurzelkanäle kam es zum Auftreten einer Fraktur.
Bezüglich der Veränderung der Kanalanatomie lässt sich für die Mity-Roto-Feilen ein weitgehend zentriertes Aufbereitungsverhalten feststellen. Hingegen weisen die Profile .04-Gruppe, sowie die Profile .04/06-Gruppe lediglich im apikalen Kanalanteil ein zentriertes Aufbereitungsmuster auf, im mittleren Teil kommt es zu einem stärkeren Abtrag an der Außenkurvatur und koronal ist eine Verlagerung des stärksten Abtrags nach mesial festzustellen.
Bei der Bewertung der Veränderung der Kanalanatomie muss berücksichtigt werden, dass durch die Diapositivtechnik nur eine Betrachtung in zwei-dimensionaler Weise möglich war, die dritte Ebene ist ausgespart und entzieht sich somit der Möglichkeit der Bewertung. Der Großteil von Studien, der sich mit der Aufbereitung von Wurzelkanälen beschäftigt, bereitet diese häufig nicht in dem starken Maße auf, wie in der vorliegenden Untersuchung geschehen. Statt einer Masterfeile von # 40, wie in der vorliegenden Untersuchung, wird häufig lediglich bis # 30, beziehungsweise # 35 aufbereitet.
Unter den Bedingungen der vorliegenden Studie führte die maschinelle
Wurzelkanalpräparation mit Profile .04-Instrumenten zu unbefriedigenden Ergebnissen, die sich jedoch durch den zusätzlichen Einsatz der stärker konisch geformten .06-Instrumente deutlich verbessern lassen. Aufgrund der relativ hohen Frakturhäufigkeit kann der kombinierte Einsatz von Profile .04- und Profile .06-Instrumenten für die Aufbereitung von gekrümmten Kanälen eingeschränkt empfohlen werden.
In Bezug auf alle erhobenen Parameter erzielte die Aufbereitung mit den Mity-Roto-Feilen die besten Ergebnisse und kann für die maschinelle Aufbereitung gekrümmter Wurzelkanäle empfohlen werden.
In dieser Dissertation wird der Frage nachgegangen, inwiefern sich unangemessene Behandlung in der praktischen Ausbildung zwischen Medizinstudierenden und Studierenden anderer Studienfächer unterscheidet. Zudem wird untersucht, welcher Einfluss der Hierarchie im angestrebten Beruf von den Probanden diesbezüglich zugemessen wird. Auch wird untersucht, wie sich Persönlichkeitsmerkmale auf die Wahrscheinlichkeit, unangemessene Behandlung zu erleben, auswirken.
Als Teil der Atmungskette des hyperthermophilen Bakteriums Aquifex aeolicus besteht die NADH:Ubichinon-Oxidoreduktase aus 13 Untereinheiten, die durch 24 unterschiedliche Gene codiert werden. Im Rahmen dieser Arbeit wurde für den massenspektrometrischen Nachweis dieser Untereinheiten nach der Aufreinigung des Komplexes eine SDS-PAGE durchgeführt, an die sich eine tryptische Proteolyse und eine Messung per MALDI MS und MS/MS anschlossen. Mit dieser analytischen Strategie war es möglich, jede nicht-homologe Untereinheit nachzuweisen und 20 von 24 genombasierten Isoformen eindeutig zu identifizieren. Selbst kleine bzw. sehr hydrophobe Untereinheiten mit vielen Transmembranhelices konnten mit Hilfe dieser Methode analysiert werden. Die hohe Anzahl an präsenten, unterschiedlichen Isoformen und die vorherrschenden Verunreinigungen durch Fremdproteine (z.B. ATP-Synthase) könnten Indizien dafür sein, dass bis jetzt keine hinreichend stabile und reproduzierbare Enzympräparation gelungen ist, um eine Kristallstrukturanalyse durchzuführen. Im Allgemeinen kann der Ablauf eines solchen Proteomics-Experiments in drei Teile gegliedert werden: die Auftrennung eines Protein- oder Peptidgemischs zur Verringerung der Probenkomplexität, die Identifikation des Proteins per Massenspektrometrie und die damit verbundene bioinformatische Datenanalyse. Neben chromatographischen Methoden ist die Elektrophorese in Polyacrylamidgelen immer noch das am häufigsten angewandte Trennverfahren im Proteomics-Bereich. Vor der MS-Messung werden die aufgetrennten Proteine in der Regel direkt in der Gelmatrix verdaut. Die Qualität der Ergebnisse wird stark durch Proteinmenge und die auftretenden Probenverluste beeinflusst. Diese werden beispielsweise durch eine unzureichende Peptidextraktion aus dem Gel hervorgerufen. Im Rahmen dieser Dissertation wurde ein neues Gelsystem entwickelt, dass vor allem für die Proteolyseeffizienz, die Peptidextraktion und somit auch für die anschließende massenspektrometrische Messung von Vorteil ist. Das Monomer Acrylamid wird hierzu mit den beiden Quervernetzern N,N-Methylenbisacrylamid (MBA) und Ethylenglykoldiacrylat (EDA) polymerisiert. Es entsteht ein Gel, dessen Poren durch die basische Hydrolyse der Esterbindungen des EDAs vergrößert werden können, ohne die dreidimensionale Grundstruktur des Gels zu zerstören.   Die gemischten Gele mit MBA und EDA als Crosslinkern sind sowohl für Tris-Glycin- als auch Tris-Tricin-Puffersysteme einsetzbar. Die Evaluierung der Daten erfolgte meist gegen ein Standardgel mit T= 14% und C= 2,6%. Durch eine experimentell ermittelte Anpassung der Mischgele auf T+10% und C+45% mit einem MBA/EDA-Verhältnis von 0,5 verhalten sich die beiden Gelsysteme empirisch gleich und zeigen eine übereinstimmende elektrophoretische Trennung und Auflösung. Es gibt keine wesentlichen Nachteile in Bezug auf die Handhabung, die elektrophoretische Trennung und die anschließenden Analysen und Techniken, solange diese in sauren bis leicht basischen pH-Bereichen durchgeführt werden. So wurde das gemischte Gelsystem sowohl bei einer 2D IEF/SDS-PAGE als auch bei einem Western Blot-Experiment angewendet und für vollständig kompatibel befunden. Die gemessenen MS-Daten profitieren im Fall von Trypsin und Elastase erheblich von der besseren Zugänglichkeit des Enzyms zum Substratprotein und der verbesserten Peptidextraktion. Die Gelaufweitung führt zu signifikant besseren Ergebnissen, die größtenteils auf höhere S/N-Werte zurückzuführen sind. Die Signalintensitäten der Peptide sind um den Faktor 5 besser als die des Referenzgels. Der Nachweis von je 1 pmol der Proteine BSA, Serotransferrin und Alkoholdehydrogenase profitiert stark von den zusätzlich erhaltenen Daten, da die Zunahme an identifizierten Peptiden bei der PMF-Suche im Bereich von 40 bis 80% liegt. Auch bei geringen Proteinmengen wie 250 bzw. 50 fmol BSA ist die Anzahl der zugeordneten Signale um den Faktor 2-3 besser. Der in-Gel Verdau von 1 pmol Bacteriorhodopsin mit Elastase zeigt ebenfalls einen Anstieg der Peptidsignale um 60% im Vergleich zum Referenzgel. Da die Proteine im Gel alle mit kolloidalem Coomassie Brilliant Blue angefärbt wurden, kann davon ausgegangen werden, dass sich die guten MS-Ergebnisse auf jede mit diesem Farbstoff visualisierte Probe übertragen lassen. Für den Fluoreszenzfarbstoff RuPBS trifft dies ebenso zu, insgesamt wurden aber weniger Peptide als bei kolloidaler Coomassie Brilliant Blue-Färbung detektiert. Dementsprechend handelt es sich bei Acrylamidgelen mit MBA/EDA-Vernetzung um ein vielversprechendes alternatives Gelsystem, dass auf eine Vielzahl anderer Methoden angewendet werden kann.
PPARs gehören wie die Steroidhormon-Rezeptoren (z. B.Glucocorticoid-, Estrogen- oder Testosteron-Rezeptoren) zur Superfamilie der nukleären Rezeptoren. Es existieren drei PPAR-Subtypen, die als PPARalpha, PPARbeta/delta und PPARgamma bezeichnet werden und von drei verschiedenen Genen kodiert werden. Fibrate sind PPARalpha-Agonisten, welche die Plasma-Triglyceridspiegel reduzieren und gleichzeitig eine moderate Steigerung des HDL-Cholesterols bewirken. Thiazolidindione (Glitazone) sind PPARgamma-Agonisten, die bei Typ-2-Diabetes-mellitus indiziert sind und als Insulinsensitizer wirken. Duale PPARalpha/gamma-Agonisten stellen eine neue Klasse von Arzneistoffen dar, die zukünftig zur Behandlung von Typ-2-Diabetikern mit gestörtem Lipidprofil eingesetzt werden könnten. Im Rahmen der vorliegenden Dissertation wurde eine Leitstrukturoptimierung des selektiven PPARalpha-Agonisten Pirinixinsäure (WY 14643) durchgeführt. Die pharmakologische In-vitro-Charakterisierung der Substanzen erfolgte mit Hilfe subtypspezifischer Reportergen-Assays. Zusätzlich wurde gezeigt130, dass Chinolinderivate der Pirinixinsäure 5-LOX-inhibierende Eigenschaften in polymorphnukleären Leukozyten zeigen. Zunächst wurde eine geeignete Synthesestrategie zur Darstellung von Pirinixinsäurederivaten etabliert, was zur Charakterisierung und Identifizierung einer Serie von potenten dualen PPARalpha/gamma-Agonisten und 5-LOX-Inhibitoren führte. Die Synthesestrategie zur Darstellung von sowohl im Arylamino-Bereich (W) als auch in alpha- Position (R) modifizierten Derivaten der Pirinixinsäure bestand in einer vierstufigen Reaktionsfolge (I–IV; siehe Abb.). ... Die PPAR-Modulatoren (Carbonsäuren) 4, 8, 14, 32–38, 41 und 42 wurden in-vitropharmakologisch unter Anwendung subtypselektiver Reportergen-Assays (hPPARalpha, beta, gamma) charakterisiert. Die 5-LOX-Modulatoren (Carbonsäureester) 3, 7, 8, 13, 14, 24–29, 31–42 und 50 wurden in-vitro-pharmakologisch unter Anwendung des 5-LOX-Standardassays in intakten PMNL (polymorphnukleäre neutrophile Leukozyten) evaluiert. Die vorliegende Untersuchung deckte auf, dass der Ersatz des 2,3-Dimethylanilin-Strukturelements der Pirinixinsäure durch 6-Aminochinolin zu einem Gesamtverlust des PPARalpha/gamma-Agonismus führt. Durch Strukturmodifikationen im Arylamino-Bereich der Leitstruktur WY 14643 mit für 5-LOX-Non-Redoxinhibitoren typischen Pharmakophorresten, Tetrahydropyran-4-yl (Substanzen 13–14) und Methoxychinolin-2-yl (Substanz 43), konnte eine signifikante Steigerung des 5-LOX-inhibitorischen Potenzials erzielt werden [IC50 7 mikro M (13) bzw. 4 mikro M (43)]. Die alpha-alkylsubstituierten Carbonsäurederivate 33–38 zeigten sowohl am hPPARalpha als auch am hPPARgamma eine mit der aliphatischen Kettenlänge steigende Potenz. Am hPPARalpha erwiesen sich das alpha-Hexyl-Derivat 35 und das alpha-Butyl-Derivat 34 mit EC50-Werten von 1,9 mikro M (35) bzw. 11,5 mikro M (34) entsprechend einer Steigerung der Aktivität gegenüber WY 14643 um den Faktor 20 (35) bzw. den Faktor 4 (34) als besonders potent. Im Falle des hPPARgamma zeigten ebenso das alpha-butylsubstituierte Derivat 34 und der alpha-hexylsubstituierte Ligand 35 die höchste Aktivität mit EC50-Werten von 8,7 mikro M (34) bzw. 5,8 mikro M (35) und einer Steigerung der Aktivität gegenüber WY 14643 von Faktor 6 (35) bzw. Faktor 9 (34). Die Einführung von alpha-Alkylsubstituenten in das Grundgerüst der Pirinixinsäure führt möglicherweise zum Besetzen der linken proximalen Bindungstasche und somit zu einer im Vergleich zur Leitstruktur WY14643 stärkeren Bindung in die Ligandenbindungstasche des Rezeptors. Die Besetzung dieser proximalen Bindungstasche entscheidet jedoch nicht über die PPAR-Selektivität, da diese sowohl von hPPARalpha- als auch von hPPARgamma-Agonisten belegt wird. PPARalpha/gamma-Selektivität kann zum einen durch das Besetzen der linken bzw. rechten distalen Bindungstasche erzielt werden, zum anderen durch die Auswahl verschiedener acider Kopfgruppen. Aufgrund unterschiedlicher Aminosäuresequenzen der Bindungstaschen der einzelnen PPAR-Subtypen ergibt sich für die Kopfgruppen der PPAR-Modulatoren im hPPARalpha und hPPARgamma eine durch den sterischen Einfluss von Carboxyl- bzw. TZD-Kopfgruppen verursachtes unterschiedliches Wasserstoffbrückennetzwerk. Im Vergleich mit Pirinixinsäure konnte nur durch die Einführung der größeren Alkylketten (n-Butyloder n-Hexyl) ein stark erhöhter dualer PPARalpha/gamma-Agonismus erreicht werden. Die Substitution des sekundären Amins der Chinolin-6-ylverbindungen durch einen Ether-Sauerstoff in den Substanzen 41 und 42 sowie die Einführung eines Linkers, genauer einer Methylengruppe, zwischen dem Chinolin-6-ylrest und dem Scaffold (Derivate 29 und 36), führt zu einer verminderten Aktivität sowohl an hPPARalpha als auch an hPPARgamma. Eine mögliche Erklärung hierfür könnte sein, dass an entsprechender Position der Liganden-Bindungstasche eine Wasserstoffbrücken-Akzeptor-Position vorhanden ist, welche zur Erhöhung der Affinität beiträgt. Offensichtlich wird, durch die Ausbildung einer Wasserstoffbrücke zwischen der NH-Funktion und einem Wasserstoffbrücken-Akzeptor innerhalb der LBP im Falle von WY 14643 ein hoher Bindungsbeitrag erreicht. Daten bezüglich der Inhibierung der 5-Lipoxygenase demonstrieren, dass 6-Aminochinolinderivate potente 5-LOX-Inhibitoren sind. Die Einführung eines 3,5-Bis-(2,2,2-trifluor-ethoxy)-phenylrestes in 6-Position des alpha-hexylsubstituierten Scaffolds führt zu Ligand 38. Dieser ist ein potenter dualer PPARalpha/gamma-Agonist mit einem EC50-Wert von 11 mikro M an hPPARalpha bzw. 7,7 mikro M an hPPARgamma und ein stark wirksamer 5-LOX-Inhibitor mit einem IC50-Wert von 1 mikro M im 5-LOX-PMNL-Standardassay. Die Substanz 38 wurde in präklinischen Studien eingesetzt. Vier Stunden nach oraler Administration bei Mäusen (n = 6) wurde einen Plasmaspiegel von 40 mikro M erreicht. Im Hinblick auf eine Steigerung der PPAR-agonistischen Aktivität und der Reduktion der hepatotoxischen Eigenschaften der Leitstruktur Pirinixinsäure wurde eine Leitstrukturoptimierung durch Einführung der größeren Alkylketten in alpha-Position zur pharmakophoren Carboxyl-Funktion durchgeführt. Für die inhibierende Wirkung auf die 5-LOX scheint das Chinolin-Strukturelement verantwortlich zu sein, während die Potenz der Inhibition durch das Substitutionsmuster moduliert wird.
Die Rolle von NO und cGMP in der Schmerzverarbeitung im Rückenmark ist in den letzten Jahren durch viele Berichte untermauert worden. Nicht vollständig bekannt sind hingegen die Mechanismen, derer sich cGMP bedient, um die Transmission von Schmerzen zu beeinflussen. In der vorliegenden Arbeit wurde deshalb untersucht, welche cGMPabhängigen Phosphodiesterasen (PDEs) hierbei eine Rolle spielen könnten und wie sich diese Beteiligung funktionell äußert. Dazu wurden immunhistochemische Färbungen von Rückenmarkschnitten angefertigt und Western-Blot-Analysen von Rückenmarkgewebe durchgeführt. Beide Methoden lieferten Hinweise dafür, dass die PDEs 1A, 1B, 3A,3B, 5A und 11A keine Rolle in der Verarbeitung von Schmerzen spielen. Demgegenüber scheinen die PDE1C, 2A und 10A in schmerzrelevanten Gebieten des Rückenmarks lokalisiert zu sein. Die funktionelle Relevanz der PDE2A und PDE10A im Rahmen der Schmerzverarbeitung wurde mit Hilfe des PDE2A-Inhibitors BAY 60-7550 und des PDE-10A-Inhibitors Papaverin in nozizeptiven Tiermodellen untersucht. Dabei bewirkte, im Modell der Complete Freund’s Adjuvant (CFA)-induzierten mechanischen Hyperalgesie, die i.p. Applikation von BAY 60-7550 oder Papaverin eine Verstärkung der Hyperalgesie. Weiterhin war die Leckzeit in der 2. Phase des Formalin-Modells bei einer Inhibition von PDE10A signifikant verlängert. Insgesamt bestätigen die Ergebnisse der vorliegenden Arbeit frühere Berichte, dass cGMP an der Schmerzsensibilisierung im Hinterhorn des Rückenmarks beteiligt ist und deuten auf eine Rolle insbesondere von PDE2A und 10A im Rahmen der Schmerzsensibilisierung hin.
Starkes Übergewicht und eine damit einhergehende Hypertrophie von Geweben aber auch des Herz-Kreislauf-Systems führen zu einer Reihe von Folgeerkrankungen wie z. B. Diabetes mellitus Typ 2 oder auch Arteriosklerose. Während im Fettgewebe freie Fettsäuren, die von Makrophagen aufgenommen werden, eine entscheidende Rolle spielen, scheint in der Pathogenese von Arteriosklerose die Aufnahme von Fettsäuren aus Lipoproteinpartikeln durch Makrophagen von großer Wichtigkeit zu sein. Ein weiterer Faktor, der durch freie Fettsäuren ausgelöst wird ist ER-Stress. Makrophagen, die zu Triglycerid (TG) reichen Schaumzellen geworden sind, akkumulieren in arteriosklerotischen Läsionen. Der Lipidmetabolismus von Makrophagen wird transkriptionell u.a. durch den Transkriptionsfaktor PPARγ (Peroxisomproliferator aktivierter Rezeptor γ) reguliert. Sein Zielgen FABP4 (Fettsäuren bindendes Protein 4) beschleunigt die Entwicklung von Arteriosklerose in Mausmodellen. Da die Expression von PPARγ und FABP4 in IL 4- (Interleukin-4) polarisierten Makrophagen induziert wird, sollte die Rolle von FABP4 in humanen, mit IL 4 polarisierten Makrophagen untersucht werden. Hierfür wurden primäre humane Monozyten in Anwesenheit von LPS/IFNγ (Lipopolysaccharid/Interferon γ) bzw. IL 4 zu Makrophagen differenziert. Es zeigte sich, dass in LPS/IFNγ stimulierten Makrophagen PPARγ und dessen Zielgene nicht exprimiert wurden. Dagegen waren sie bei unstimulierten Makrophagen bei IL 4 stimulierten Makrophagen deutlich erhöht. Dies spiegelte sich auch in einer erhöhten Aufnahme von Triglyceriden aus VLDL-Partikeln (Lipoproteinpartikel sehr niedriger Dichte) wider. IL 4 induzierte also einen Fettsäuren akkumulierenden Phänotyp. Durch einen PPAR-Luciferase-Reporter-Test wurde untersucht, ob FABP4 für die Aktivierung von PPARγ nötig war. Dies konnte bestätigt werden, da PPARγ durch seinen Liganden Linolsäure nur in Anwesenheit von FABP4 aktiviert werden konnte. Diese Aktivierung konnte zusätzlich durch den FABP4-Inhibitor HTS01037 verhindert werden. Nun sollte der Einfluss von FABP4 auf die PPARγ-abhängige Genexpression untersucht werden. Hierfür wurde FABP4 während der Differenzierung mit den beiden Inhibitoren HTS01037 oder BMS309403 in IL 4 stimulierten Makrophagen inhibiert. Durch die Inhibition von FABP4 sank die Expression von FABP4 und LPL (Lipoproteinlipase), während die von PPARγ unverändert blieb. Die LPL spielt eine entscheidende Rolle in der Aufnahme von Lipiden aus VLDL-Partikeln und trägt somit zur TG-reichen Schaumzellbildung bei. Die verminderte Expression von LPL spiegelte sich in einer verminderten Lipidaufnahme aus VLDL-Partikeln wider. Gleichzeitig wurde durch die FABP4-Inhibition die Entzündungsantwort der Makrophagen auf VLDL-Partikel abgeschwächt. IL 4 induziert also LPL, indem es PPARγ aktiviert. FABP4 unterstützt hierbei die Aktivierung von PPARγ. Durch die Inhibition kann die LPL-Expression vermindert werden, was die TG-reiche Schaumzellbildung und die Entzündungsreaktion in einem VLDL-reichen Umfeld vermindert und eine neue Therapiemöglichkeit von Arteriosklerose eröffnet. Im Fettgewebe kommt bei starkem Übergewicht, bedingt durch die erhöhte Konzentration an freien Fettsäuren und Hypoxie, zu einer leichten Entzündungsreaktion. Diese Entzündungsreaktion wurde durch eine Stimulation mit Palmitat unter Hypoxie (1 % O2) nachgebildet. Überstände von Makrophagen nach dieser Stimulation (MCM) wurden auf primäre humane Adipozyten übertragen. Diese Überstände konnten zwar keine Insulinresistenz in Adipozyten auslösen, induzierten jedoch eine Entzündungsreaktion. Diese zeigte sich in einer erhöhten Expression der proentzündlichen Zytokine CCL2 (CC-Chemokin-Ligand-2) und IL 6. Gleichzeitig wurde die Expression des antientzündlichen Zytokins Adiponectin vermindert. Der Transfer von MCM ist also ein Modell für die Entstehung der Insulinresistenz in einem frühen Stadium. Beim Versuch, die entzündungsfördernde Fähigkeit des MCMs zu verhindern, wurde AMPK mit verschiedenen Aktivatoren stimuliert. Es zeigte sich, dass der AMPK-Aktivator AICAR (5-Aminoimidazol-4-carboxamidribonukleotid) die Entzündungsantwort und den ER-Stress von mit Hypoxie und Palmitat stimulierten Makrophagen deutlich reduzierte. Der starke Effekt auf den ER-Stress konnte auch mit anderen ER-Stress-Auslösern wie Thapsigargin oder Tunicamycin nachvollzogen werden. Da AICAR ein AMPK-Aktivator ist, wurden typische Effekte der AMPK-Aktvierung wie reduzierte Proteinexpression, verstärkte Sirtuin-1-Aktivierung und Steigerung der Fettsäurenoxidation mittels Inhibitoren verhindert. Dies hatte keinen Einfluss auf die Wirkung von AICAR. Ebenso wurde untersucht, ob AICAR in die Zelle aufgenommen werden musste und ob es zu seiner phosphorylierten Form ZMP umgewandelt werden musste. Durch den Inhibitor ABT 702 kann die Adenosinkinase inhibiert werden, welche die Phosphorylierung katalysiert. Es zeigte sich, dass die Phosphorylierung von AICAR zu ZMP nicht erforderlich war, damit AICAR die ER-Stress-Antwort hemmen konnte. AICAR und nicht ZMP wirkte gegen den ER-Stress. Da durch das fehlende ZMP die AMPK nicht aktiviert wurde, war das ein weiteres Zeichen, dass AICAR AMPK-unabhängig wirkte. Dies konnte durch einen AMPK-Knockdown bestätigt werden. Durch einen Knockdown verschiedener Adenosintransporter konnte gezeigt werden, dass SLC28A3 (Soluttransporterfamlie 28 Typ A3) verantwortlich für die Aufnahme von AICAR in primäre humane Makrophagen war. Es konnte demnach gezeigt werden, dass AICAR den ER-Stress in primären humanen Makrophagen in einem von AMPK unabhängigen Mechanismus vermindert. Dafür wird es mittels SLC28A3 in die Zelle aufgenommen und wirkt als AICAR und nicht als ZMP. Diese Erkenntnisse stellen eine interessante, neue therapeutische Möglichkeit im Feld von Arteriosklerose und Diabetes dar.
Integrin a2ß1 ist ein Adhäsionsrezeptor, der verschiedene Kollagentypen bindet. Als solcher spielt es eine bedeutende Rolle für Zellfunktionen wie Migration und die Regulation des Zytoskeletts, Zellteilung, Apoptose und Differenzierung. Integrin a2ß1 übernimmt deshalb eine tragende Funktion in Prozessen wie Wundheilung, Angiogenese und der Progression und Metastasierung von Krebs. Rhodocetin ist ein Antagonist des Integrins a2ß1. Es ist ein C-Typ-Lektin-artiges Protein das im Schlangengift der Malaiischen Grubenotter (Calloselasma rhodostoma) entdeckt wurde. Rhodocetin besteht aus vier Untereinheiten a, ß, ? und d, die zwei Dimere formen (aß und ?d), welche wiederum eine kreuzförmige heterotetramere Quartiärstruktur bilden, die bislang nur für Rhodocetin beschrieben wurde. Rhodocetin bindet an die Integrin-a2A-Domäne der a-Untereinheit des Integrins a2ß1. Rhodocetin unterbindet damit die Bindung von Kollagen und die Aktivierung des Integrins. Der genaue Interaktionsmechanismus von Rhodocetin mit der Integrin-a2A-Domäne ist noch unbekannt. In der vorliegenden Arbeit wurden mittels Hybridomtechnik monoklonale Antikörper gegen Rhodocetin generiert. Es wurden sechs Fusionen von Lymphozyten mit Myelomazellen durchgeführt, für die sowohl Mäuse als auch Ratten mit Rhodocetin immunisiert wurden. Die erzeugten Hybridomaklone wurden zunächst im ELISA auf ihre Fähigkeit getestet, Rhodocetin zu binden. Positiv getestete Klone wurden selektiert und die monoklonalen Antikörper aus den Zellüberständen aufgereinigt. Es konnten 14 monoklonale Antikörper etabliert werden. Die Antikörper wurden zunächst in ihren Bindungseigenschaften charakterisiert. Hierzu wurden verschiedene ELISAs, Immunblot und Immunpräzipitation genutzt. In der Duchflusszytometrie wurde getestet, ob die Antikörper an Integrin a2ß1 gebundenes Rhodocetin detektieren. Die Antikörper lassen sich hinsichtlich ihr Bindungseigenschaften und der Lage ihrer Bindungsepitope auf den verschiedenen Rhodocetin-Heterodimeren in unterschiedliche Klassen unterteilen. Es wurde nachgewiesen, dass Rhodocetin Konformationsänderungen unterliegt, die durch die Bindung einiger der generierten Antikörper induziert werden. Um den Einfluss divalenter Kationen auf die Konformation von Rhodocetin sowie den Interaktionsmechanismus von Rhodocetin mit der Integrin-a2A-Domäne zu untersuchen, wurde die analytische Gelfiltrationschromatographie genutzt. Es konnte gezeigt werden, dass die Bindung divalenter Kationen die Konformation von Rhodocetin beeinflusst. Um die Interaktionsstudien von Rhodocetin mit der a2A-Domäne auszuwerten wurde ein Sandwich-ELISA etabliert. Dieser ermöglichte es, im Anschluss an die Gelfiltration, die beiden Rhodocetin-Heterodimere unabhängig voneinander im Eluat nachzuweisen und zu quantifizieren. Es wurde nachgewiesen, dass das Rhodocetin-Heterotetramer während der Interaktion mit der Integrin-a2A-Domäne dissoziiert und nur das ?d-Dimer einen stabilen Komplex mit der a2A-Domäne bildet, während das aß-Dimer freigesetzt und unabhängig von diesem Komplex eluiert wird. Die pharmakologischen Eigenschaften von Rhodocetin wurden in einem Tumor-Xenograft-Modell untersucht, für das immundefizienten Mäusen HT1080 Fibrosarkomzellen implantiert wurden. Rhodocetin wurde den Mäusen intravenös appliziert und die Auswirkungen auf die Tumoren sowie der Verbleib von Rhodocetin im Körper analysiert. Die Entwicklung der Serumkonzentration von Rhodocetin wurde mit dem etablierten Sandwich-ELISA untersucht, welches hierzu mit einer Standardreihe kalibriert wurde. Die Elimination von Rhodocetin folgt einer Kinetik erster Ordnung. Die Exkretion von Rhodocetin erfolgt über die Niere. Es zeigte sich, dass etwa zwei Drittel des applizierten Rhodocetins unmittelbar nach Injektion von Integrin a2ß1-exprimierenden Zellen des Blutes gebunden werden. Die immunhistologische Auswertung von Tumoren und Kontrollgeweben ergab, dass Rhodocetin an Endothelzellen innerhalb der Nierenglomeruli sowie der Leber bindet. Rhodocetin konnte auch auf Endothelzellen der Tumorvaskulatur nachgewiesen werden. Innerhalb der Tumoren wurde Rhodocetin auch außerhalb von Blutgefäßen gefunden, wo es an HT1080 Tumorzellen bindet. Die Behandlung mit Rhodocetin beeinträchtigte die Integrität der Blutgefäße innerhalb der Tumoren und führte zu Hämorrhagien. Um die Auswirkungen von Rhodocetin auf die Tumoren genauer zu untersuchen und zu quantifizieren, wurde dynamische Magnetresonanztomographie genutzt. Es zeigte sich, dass Rhodocetin die Durchlässigkeit der Blutgefäße in Tumoren signifikant erhöht.
Die Untersuchung befasst sich am Beispiel der fotografischen Arbeiten von Barbara Klemm mit einer aktuellen Entwicklung in der Fotografie. Der Lebens- und Berufsweg der Fotografin steht dabei stellvertretend für eine Generation von Reportage- und Dokumentarfotografen, die in der zweiten Hälfte des 20. Jahrhunderts nicht nur erfolgreich in ihrem Beruf gearbeitet, sondern darüber hinaus auch im musealen Kontext Beachtung erfahren haben. Durch die wachsende öffentliche Aufmerksamkeit und das damit verbundene Ansehen entwickelten sich die Arbeiten von Barbara Klemm von dokumentarischen Zeitungsbildern zu künstlerischen Fotografien. Wie dieser Prozess vom Zeitungsbild zum Museumsbild im Einzelnen abgelaufen ist, wird in der vorliegenden Arbeit untersucht.
Zu Beginn wird der gegenwärtige Umgang mit Fotografie in der Gesellschaft und in der Kunst thematisiert. Es wird die Entwicklung des fotografischen Mediums seit 1960 parallel zu den Wirkjahren von Barbara Klemm untersucht und gezeigt, welchen Einfluss diese Veränderungen auf ihr Werk und dessen Wahrnehmung hatten.
Dies ist im Allgemeinen die Frage nach der Wahrnehmung von Fotografie und im Speziellen nach der Veränderung von Wahrnehmung oder besser nach der Veränderung der Umwelt, die dem Betrachter eine andere Sicht auf die Fotografie ermöglicht. Das Thema ist aus der Sicht der Kunstwissenschaft und Kunstpädagogik bedeutsam, denn es zeigt, wie sich gesellschaftliche Kategorisierungen nicht unmittelbar, sondern im Laufe eines jahrzehntelangen Prozesses verändern. Eine Veränderung, deren Ursachen in einer engen Vernetzung von Wahrnehmung, Kommunikation, gesellschaftlicher Faktoren und ganz unterschiedlicher Entwicklungen innerhalb verschiedener einflussnehmender Systeme in einer gemeinsamen Umwelt zu suchen sind. Die analoge Schwarzweißfotografie ist die Technik in der Barbara Klemm arbeitet. Dies stellt heutzutage eine Besonderheit dar, denn die Sehgewohnheiten der Betrachter sind durch sehr verschiedene Bildarten geprägt. Diese reichen von Schnappschüssen und Amateuraufnahmen mit Kleinbild- oder handykameras bis hin zu professionellen Fotografien in der Werbung oder in Hochglanzmagazinen. Aufgrund der digitalen Technik, bei der mehr Aufnahmen in kurzer Zeit gemacht werden können, treten Komposition, Bildaufbau und Beleuchtung oft in den Hintergrund. Die Unterschiede zwischen analoger und digitaler Fotografie werden zudem in einer geschichtlichen Entwicklung der Reportagefotografie der vergangenen Jahrzehnte vertieft. Barbara Klemm arbeitete den größten Teil ihres Berufslebens als Bildjournalistin bei der Frankfurter Allgemeinen Zeitung. Von 1970 bis 2004 war sie zuständig für die Bereiche Politik und Feuilleton. In diesen Jahren entstanden Bilder, die heute zum kollektiven Gedächtnis vieler Deutscher zählen. Ausgehend von ihrer Arbeit wird dargestellt, wie die Fotografien einem Publikum zugänglich gemacht wurden und im Laufe der Zeit über das Medium der Zeitung hinaus in andere Bereiche der Öffentlichkeit gelangten, vor allem in die Kunst, aber auch in die Bereiche der Geschichte und Erinnerungsarbeit. Unter Verwendung der theoretischen Grundlage und Kategorisierung von Niklas Luhmann werden Arbeiten der Fotografin im System Journalismus und im System Kunst untersucht. An dieser Stelle waren Operatoren notwendig, die ihre Bilder aus dem System des Zeitungswesens in das System der Kunst transferierten. Diese Aufgabe konnten nur bestimmte Schlüsselfiguren (Schlüsselpersonen) erfüllen, denn Barbara Klemm hatte zu keiner Zeit intendiert, künstlerisch zu arbeiten. Das bedeutet, nur ein anerkannter Museumsdirektor oder ein erfahrener Ausstellungskurator konnte ihre Position in das „System Kunst“ einführen.
Nach einer kurzen biografischen Vorstellung der Arbeits- und Lebensstationen werden der Stil, die Technik und die Komposition Barbara Klemms Fotografien analysiert, um anschließend einen Versuch zu unternehmen, die besondere Ästhetisierung der Bilder zu erklären. So besitzt eine gelungene Fotografie von Barbara Klemm einen Mehrwert gegenüber den reinen Reportagebildern. Was der Betrachter vor Barbara Klemms Bildern empfindet und assoziiert, ist zum Teil individuell, zum Teil aber auch sozial, gesellschaftlich und kulturell – also intersubjektiv bestimmt. All seine Erfahrungen prägen die Beziehung zu jedem einzelnen Bild. Dass die Fotografien von Barbara Klemm heute eine breite Akzeptanz erfahren, hängt auch mit gesellschaftlichen Abläufen zusammen. Wissen und Meinungen festigen sich durch Wiederholung, die zur Gewohnheit werden. Vertrautem begegnet man folglich eher mit Sympathie und Wohlwollen, nicht zuletzt vermittelt es eine gewisse Sicherheit. Die langjährige Präsenz als Fotografin bei der Frankfurter Allgemeinen Zeitung stellt demnach eine fruchtbare Basis dar. Symbolisch gesprochen ist ihre Anstellung bei der Tageszeitung das stabile Fundament, auf dem ihr späterer Erfolg als künstlerische Fotografin aufbaut.
Quasi-zweidimensionale organischen Ladungstransfersalze weisen gewisse Analogien zu den Hochtemperatur-Kupratsupraleitern (HTSL) auf. Zu nennen ist einerseits der ähnliche schichtartige Aufbau, wobei sich leitfähige und isolierende Ebenen abwechseln. Zum anderen liegt der antiferromagnetische Grundzustand in direkter Nachbarschaft zur Supraleitung und bei höheren Temperaturen wird ebenfalls die Entstehung einer Pseudo-Energielücke diskutiert. Im Gegensatz zu den HTSL können die elektronischen Eigenschaften der organischen Ladungstransfersalze jedoch leicht durch äußere Parameter wie hydrostatischen bzw. chemischen Druck - die Verwendung verschiedener Anionen X läßt sich in einem verallgemeinerten Phasendiagramm ebenfalls auf die Achse W/U abbilden, siehe Abschn. 4.2 - oder moderate Temperaturen beeinflußt werden. In den quasi-zweidimensionalen K-(BEDT-TTF)2X-Salzen ist bspw. ein moderater Druck p ~ 250 bar ausreichend, um das antiferromagnetisch-isolierende System (X=Cu[N(CN)2]Cl) auf die metallische Seite des Phasendiagramms zu verschieben, wobei dann im Grundzustand Supraleitung auftritt (Tc ~ 12,8 K). Eine Dotierung wie bei den HTSL und die damit einhergehende unerwünschte Unordnung ist nicht notwendig um einen Isolator-Metall-übergang zu induzieren. Demnach sind die experimentellen Anforderungen im Vergleich zu anderen stark korrelierten Elektronensystemen auf relativ einfache Weise zu realisieren. Auch das macht die organischen Ladungstransfersalze zu idealen Modellsystemen, um fundamentale Konzepte der theoretischen Festkörperphysik zu studieren, wovon einige bislang lediglich von akademischem Interesse waren. Erstmalig wird in dieser Arbeit die Fluktuationsspektroskopie als experimentelle Methode angewendet, um die Dynamik des TT-Elektronensystems in den quasi-zweidimensionalen organischen Ladungstransfersalzen K-(BEDT-TTF)2X bei niedrigen Frequenzen zu studieren. Ziel ist es, Informationen über die Temperatur-, Druck- und Magnetfeld-Abhängigkeit der spektralen Leistungsdichte des Widerstandsrauschens und damit über die Dynamik der Ladungsfluktuationen zu gewinnen. Insbesondere in der Nähe korrelationsgetriebener Ordnungsphänomene spielt die Dynamik der Ladungsträger eine entscheidende Rolle. Auch die Kopplung des elektronischen Systems an bestimmte strukturelle Anregungen hat Einfluß auf das Widerstandsrauschen. Zu Beginn wird eine kurze Einführung in die Signalanalyse gegeben und daran anschließend werden verschiedene Arten des Rauschens in Festkörpern dargestellt (Kap. 1). Einige der für diese Arbeit relevanten Ordnungsphänomene werden in Kap. 2 in knapper Form eingeführt, wobei auf die dynamischen Eigenschaften in der Nähe eines Glasübergangs etwas ausführlicher eingegangen wird. Nach der Vorstellung der eingesetzten Meßmethoden, des Versuchsaufbaus und der Probenkontaktierung (Kap. 3) werden die experimentellen Ergebnisse an den K-(BEDT-TTF)2X-Salzen in Kap. 4 ausführlich diskutiert.
Strukturgleichungsmodelle (SEM) werden in den letzten Jahren vermehrt zur Aufdeckung von nichtlinearen Effekten wie Interaktionseffekten oder quadratischen Effekten in der empirischen Forschung verwendet. Daher kommt der Bereitstellung von effizienten und robusten Schätzverfahren für die Analyse von nichtlinearen SEM, die simultan multiple nichtlineare Effekte schätzen können, eine wichtige Bedeutung in der methodologischen Forschung zu. Bisher wurde jedoch nur ungenügend die Problematik untersucht, dass zwar die üblicherweise verwendeten Schätzverfahren aus der Klasse der Produktindikator-(PI)-Ansätze (z.B. der Unconstrained-Ansatz; Kelava & Brandt, 2009; Marsh, Wen & Hau, 2004) und der Klasse der verteilungsanalytischen Verfahren (z.B. LMS oder QML; Klein & Moosbrugger, 2000; Klein & Muthén, 2007) auf der Annahme einer multivariaten Normalverteilung für einen Großteil der im Modell enthaltenen Variablen beruhen, diese jedoch in der Empirie fast nie gegeben ist. Andere Ansätze, wie die momentbasierten Verfahren des 2SMM- oder des MM-Ansatzes (Wall & Amemiya, 2000, 2003; Mooijaart & Bentler, 2010), die die Normalitätsannahme deutlich abschwächen können, finden in der Literatur hingegen nur geringe Berücksichtigung. Im ersten Teil dieser Arbeit werden diese momentbasierten Verfahren zur Schätzung von multiplen nichtlinearen Effekten erweitert und hinsichtlich ihrer Schätzeigenschaften bei nicht-normalverteilten Daten im Vergleich zu den PI- und den verteilungsanalytischen Ansätzen sowohl theoretisch als auch anhand einer umfangreichen Simulationsstudie untersucht (Brandt, Kelava & Klein, in press).
Zusammenfassend zeigt sich, dass LMS und QML bei normalverteilten Indikatoren die effizientesten Schätzungen liefern und in diesem Fall eingesetzt werden sollten. Bei nicht-normalverteilten Daten ist jedoch ein Parameterbias zu beobachten. Der erweiterte Unconstrained-Ansatz liefert zwar sowohl für normalverteilte als auch für nicht-normalverteilte Indikatoren erwartungstreue Parameterschätzungen, die Standardfehler werden jedoch stets unterschätzt (auch bei der Verwendung eines robusten Schätzers für die Standardfehler), was sich in einem erhöhten alpha-Fehler widerspiegelt. Der 2SMM-Ansatz liefert sehr gute Schätzergebnisse für normalverteilte und nicht-normalverteilte Indikatoren und kann insbesondere bei nicht-normalverteilten Indikatoren verwendet werden; bei normalverteilten Indikatoren ist das Verfahren etwas weniger effizient als LMS. Ein Nachteil des Verfahrens ist jedoch seine schwierige Erweiterung für andere als das hier untersuchte Querschnittsmodell (z.B. für Latente Wachstumskurvenmodelle). Der MM-Ansatz zeigt deutliche Schwächen in seinen Schätzungen, die sowohl bei einer simultanen Schätzung von mehr als einem nichtlinearen Effekt als auch bei nicht-normalverteilten Indikatoren auftreten, und stellt daher keine Alternative zu den anderen Schätzverfahren dar.
Um ein Verfahren bereitzustellen, das bei nicht-normalverteilten Daten zuverlässige und effiziente Schätzungen für nichtlineare Effekte liefern kann, wurde der NSEMM-Ansatz entwickelt (Kelava, Nagengast & Brandt, in press). Der NSEMM-Ansatz ist ein allgemeinerer Ansatz als der 2SMM-Ansatz und kann flexibler auch für andere Modelle genutzt werden, da er direkt in Mplus spezifizierbar ist. Der NSEMM-Ansatz verwendet zur Approximation der Verteilung der (latenten) Prädiktoren ein Mischverteilungsmodell, und stellt damit eine Erweiterung der SEMM (Structural Equation Mixture Models) dar. Im Gegensatz zu den SEMM, die nichtlineare Effekte semi-parametrisch modellieren, d.h. keine Funktion für die Nichtlinearität annehmen, verwendet der NSEMM-Ansatz eine parametrische Funktion für die nichtlinearen Effekte (z.B. einen quadratischen Effekt), wodurch eine Aussage über die Effektstärke des nichtlinearen Effekts möglich ist. Neben einer Darstellung des Konzepts der Mischverteilungsmodelle und des NSEMM-Ansatzes werden auch erste Ergebnisse zu den Schätzeigenschaften des NSEMM-Ansatzes im Vergleich zu LMS und dem erweiterten Unconstrained-Ansatz berichtet.
Im letzten Teil der Arbeit wird auf Interaktionseffekte in Längsschnittstudien eingegangen. Hierbei wird das Problem von heterogenen Entwicklungs- und Wachstumsprozessen aufgegriffen, das in der Empirie häufig auftritt, wenn die Streuung der Entwicklungsverläufe von den Ausgangsbedingungen abhängt. Wird diese Heterogenität nicht adäquat berücksichtigt, wie es der Fall bei latenten Wachstumskurvenmodellen (LGM) ist, sind Prognosen basierend auf den Ausgangsbedingungen einer Person nicht akkurat, da die Konfidenzintervalle für die Prognose auf einer fehlspezifizierten Varianz beruhen. Das heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006) erweitert das Standard-LGM um eine heterogene Varianzkomponente, die mit einem spezifischen Interaktionseffekt modelliert wird. Das HGM stellt eine Alternative zu den Growth Curve Mixture Modellen (GMM) dar, wenn keine Annahme über diskrete Klassen getroffen werden soll, sondern eine feinstufigere, kontinuierliche Modellierung der Heterogenität von Interesse ist. In dieser Arbeit wird für das HGM eine Implementierung in Mplus basierend auf dem LMS-Schätzer entwickelt, deren Anwendung und Interpretation an einem empirischen Datensatz aus der AIDS-Forschung demonstriert wird (Brandt, Klein & Gäde, under revision). Die Implementierung ermöglicht eine anwenderfreundliche Verwendung des Verfahrens und erlaubt die Berücksichtigung von Kovariaten zur Erklärung der Heterogenität in den Entwicklungsverläufen. Die Ergebnisse einer Simulationsstudie zeigen, dass das Verfahren auch bei moderater Verletzung der Verteilungsannahmen eine zuverlässige Parameterschätzung liefert.
Die Applikation von therapeutischen Peptiden oder Proteinen kann im Patienten durch Mechanismen des Immunsystems zu unerwünschten Nebenwirkungen führen, die die biologische Wirksamkeit vermindern können. Dies geht mit einer erhöhten Wirkstoffgabe oder einer Therapieresistenz einher und stellt damit ein Sicherheitsrisiko für den Patienten dar. In der vorliegenden Arbeit wurde am Beispiel HIV-inhibitorischer Peptide eine Möglichkeit aufgezeigt, mit der die peptidspezifische humorale und zelluläre Immunogenität vermindert, die Wirksamkeit indes beibehalten werden kann. Als Ausgangspunkt wurden die bereits publizierten Peptide T-20, C46, SC35EK, T-1249 und C34-EHO ausgewählt, welche äußerst effektiv den Eintritt von HIV in dessen Zielzellen verhindern. Alle fünf Peptide sind von der Aminosäuresequenz des transmembranen Hüllproteins gp41 des HIV-1 (T-20, C46, SC35EK), HIV-2 (C34-EHO) bzw. HIV-1/-2/SIV (T-1249) abgeleitet. In dieser Arbeit wurde das HIV-2 Peptid C34-EHO C-terminal um 12 Aminosäuren des HIV-1 verlängert (neue Bezeichnung: C46-EHO). Für die Initiierung einer zellulären Immunantwort muss unter anderem ein Peptidfragment (sog. MHC-I-Epitop) über Ankeraminosäuren an ein MHC-I-Molekül binden. Die in silico Analyse der Aminosäuresequenzen der Peptide ergab diesbezüglich für das Hybridpeptid C46-EHO die geringste potentielle zelluläre Immunogenität, wobei insgesamt fünf starke potentiell immunogene MHC-I-Epitope von den Vorhersageprogrammen BIMAS und SYFPEITHI identifiziert wurden. Die in vitro Analyse der humoralen Antigenität zeigte zudem, dass die überwiegende Mehrheit der HIV-1-infizierten Patienten Antikörper gegen die HIV-1-abgeleiteten Peptide C46 und T-20 im Serum aufwies, nicht jedoch gegen C46-EHO, T-1249 und SC35EK. Die Antikörper waren überwiegend gegen die am C-Terminus lokalisierte HIV-1 MPER (membrane-proximale external region) gerichtet. In den Seren von HIV-2-infizierten Patienten waren hingegen Antikörper gegen T-1249 und C46-EHO detektierbar. Die Peptide T-20, C46, SC35EK, T-1249 und C46-EHO verhinderten spezifisch die Infektion von HIV-1 im nanomolaren Konzentrationsbereich. C46-EHO hemmte überdies den Eintritt von SIVmac251 als auch T-20- und C46-resistenter HI-Viren. T-Zelllinien wurden durch die membranständige Expression von C46-EHO effektiver vor einer HIV-1 Infektion geschützt im Vergleich zu membranständigen C46 Peptid. Aufgrund der geringen Immunogenität und der äußerst breiten und effektiven antiviralen Wirksamkeit wurde C46-EHO für die weitere Optimierung verwendet. Im C46-EHO wurden Aminosäuren an Hauptankerpositionen der MHC-I-Epitope gegen weniger stark bindende Aminosäuren bei fünf potentiellen 9mer MHC-I-Epitopen ausgetauscht. Dies resultierte in den Peptidvarianten V1, V2, V3 und V4, wobei V2 die aussichtsreichsten Eigenschaften aufwies: 1) niedrigste humorale Antigenität in HIV-1 Patientenseren; 2) potente antivirale Wirksamkeit; 3) verringerte potentielle zelluläre Immunogenität. Abschließend wurde basierend auf V2 die optimierte Peptidvariante V2o generiert. Die Glykosylierungsstelle im V2 Peptid wurde an die entsprechende C46 Position verschoben, wodurch die in silico vorhergesagte zelluläre Immunogenität weiter vermindert wurde. Zudem wurde das HIV-1-abgeleitete MPER-Motiv durch die Aminosäuresequenz des HIV-2 Stammes EHO ersetzt, so dass V2o nicht mehr von prä-existierenden Antikörpern in HIV-1 Patientenseren erkannt wurde. Im ELISpot Assay wiesen weder Patienten mit einer HIV-1 bzw. HIV-2 Infektion noch SIV-infizierte Rhesus Makaken eine zelluläre Immunantwort gegen C46-EHO, V2 oder V2o auf. V2o verhinderte den Eintritt von diversen HIV-1 Viren im pikomolaren Konzentrationsbereich und wies somit eine deutlich verbesserte antivirale Wirksamkeit auf. Somit konnte in dieser Arbeit durch Austausch von Aminosäuren die intrinsische Immunogenität des HIV-inhibitorischen Peptids C46-EHO vermindert und zugleich die biologische Wirksamkeit verstärkt werden. Das hieraus resultierende Peptid V2o steht nunmehr für die weitere klinische Entwicklung als Präventativ oder Therapeutikum für die subkutane oder gentherapeutische Applikation zur Verfügung.
Um die Bedeutung bestimmter Neurone oder Klassen von Neuronen innerhalb von Nervensystemen zu untersuchen, sind Methoden, die eine Manipulation der Aktivität der Neurone in vivo erlauben, besonders nützlich. Die bisher zur Verfügung stehenden Methoden haben jedoch Einschränkungen in beispielsweise der Zelltypspezifität, der zeitlichen Präzision, der Reversibilität oder der Anwendbarkeit in frei beweglichen Tieren. Im Rahmen dieser Arbeit wurden optogenetische, d.h. auf der Expression lichtempfindlicher Proteine basierende Methoden entwickelt, um eine präzise Manipulation des Membranpotentials definierter Neurone durch Licht zu ermöglichen. Die Techniken wurden daraufhin zur Untersuchung z.B. der Neurotransmission sowie der Funktion kleiner Netzwerke im Nervensystem des Nematoden Caenorhabditis elegans verwendet. Die zelltypspezifische heterologe Expression des lichtgesteuerten Kationenkanals Channelrhodopsin-2 (ChR2) aus der Grünalge Chlamydomonas reinhardtii ermöglichte es, Muskel- oder Nervenzellen der Nematoden durch blaue Beleuchtung innerhalb weniger Millisekunden zu depolarisieren. Dadurch ließen sich spezifische Verhaltensweisen in frei beweglichen Tieren auslösen. Dieser Ansatz wird in Zukunft die Untersuchung der Bedeutung einzelner Neurone innerhalb ihrer Schaltkreise deutlich erleichtern. So konnte hier gezeigt werden, dass die Photostimulation des propriorezeptiven Neurons DVA eine signifikante Erhöhung der mittleren Körperbiegungswinkel während der sinusförmigen Fortbewegung der Tiere zur Folge hatte. Außerdem wurde versucht, die Anwendbarkeit von ChR2 durch die gezielte Manipulation der subzellulären Lokalisation mittels Fusion mit speziellen Peptiden oder Proteinen zu erhöhen. Des Weiteren wurde eine zur Verwendung von ChR2 analoge Methode zur Hemmung von Neuronen durch Licht entwickelt. Hierfür wurde die lichtgetriebene Cl--Pumpe Halorhodopsin aus Natronomonas pharaonis (NpHR) zelltypspezifisch in C. elegans exprimiert. Durch Photoaktivierung von NpHR mit gelbem Licht war es möglich, Muskelzellen und cholinerge Neurone zu hyperpolarisieren und somit in ihrer Aktivität zu hemmen. Dies führte in frei beweglichen Tieren zu einer augenblicklichen Paralyse verbunden mit einer drastischen Reduktion der Schwimmfrequenz und einer Erhöhung der Körperlänge. Die Aktionsspektren von ChR2 und NpHR sind unterschiedlich genug, um eine unabhängige Photoaktivierung der beiden Proteine mit blauem und gelbem Licht zu ermöglichen. Dadurch konnte die Aktivität von Muskelzellen und cholinergen Neuronen nach Koexpression der beiden Proteine bidirektional kontrolliert werden. Es wurden somit Methoden entwickelt, die in vivo eine zeitlich äußerst präzise Manipulation des Membranpotentials definierter Neurone mit Licht verschiedener Wellenlängen ermöglichen. Die Beobachtung der dadurch induzierten Verhaltensänderungen erlaubt es, zuverlässige Aussagen über die Bedeutung einer Nervenzelle für die Ausprägung eines Verhaltens zu treffen und wird die Erforschung der Nervensysteme von C. elegans und anderen Modellorganismen deutlich vereinfachen. Schließlich wurden in dieser Arbeit optogenetische Methoden zur Untersuchung der synaptischen Übertragung an neuromuskulären Synapsen (neuromuscular junctions, NMJs) von C. elegans entwickelt. Hierfür wurde ChR2 in GABAergen oder cholinergen Neuronen exprimiert, um eine lichtgesteuerte Freisetzung des inhibitorischen Neurotransmitters GABA bzw. des exzitatorischen Neurotransmitters Acetylcholin (ACh) an NMJs zu erreichen. Die Methode wurde OptIoN getauft, ein Akronym für „Optogenetic Investigation of Neurotransmission“, also „optogenetische Untersuchung der Neurotransmission“. Die GABA-Freisetzung hatte ähnlich wie die NpHR-vermittelte Photoinhibition von Muskelzellen eine Reduktion der Schwimmfrequenz und Erhöhung der Körperlänge zur Folge. Die Ausschüttung von ACh verursachte hingegen starke Muskelkontraktionen verbunden mit einer Reduktion der Körperlänge. Die Änderungen der Körperlänge waren bei Mutanten mit verschiedenen Neurotransmissionsdefekten signifikant unterschiedlich im Vergleich zum Wildtyp. Außerdem kam es während längerer Beleuchtungsphasen in Mutanten mit defektem Recycling der synaptischen Vesikel (SV) zu einer verstärkten Abnahme der lichtinduzierten Effekte. OptIoN ermöglicht es dadurch erstmals, die Mechanismen des SV-Recyclings in C. elegans Verhaltensexperimenten zu untersuchen. In elektrophysiologischen Messungen ließen sich durch kurze Lichtpulse wiederholt und mit hoher Frequenz Neurotransmitter-spezifische postsynaptische Ströme evozieren. Diese Ströme waren in Mutanten mit gestörter SVExozytose reduziert und gingen bei wiederholter Stimulation in Mutanten mit defektem SVRecycling schneller zurück. Die Verwendung von OptIoN erleichtert die elektrophysiologische Untersuchung neuronaler Defekte und stellt erstmals eine Möglichkeit dar, Vorgänge der neuronalen Plastizität in dem genetischen Modellsystem C. elegans zu untersuchen. Das Potential von OptIoN zeigte sich unter anderem auch in der Identifizierung eines neuen, über metabotrope GABA-Rezeptoruntereinheiten vermittelten Mechanismus zur heterosynaptischen Hemmung cholinerger Neurone.
Im Rahmen dieser Arbeit wurden verschiedene metabolische Anpassungsmechanismen des humanpathogenen Bakteriums Acinetobacter baumannii an seinen Wirt untersucht. Im ersten Teil wurde die Rolle von verschiedenen Trimethylammoniumverbindungen (Cholin, Glycinbetain und Carnitin) und den zugehörigen Aufnahmesystemen, sowie ihren Stoffwechselwegen während dieses Prozesses analysiert. Für die Analyse der Transportsysteme wurde eine markerlose Vierfachmutante (Δbcct) von A. baumannii generiert, sodass alle bekannten Transportsysteme für die genannten Verbindungen deletiert vorlagen. Wachstumsversuche mit dieser Mutante zeigten, dass es in A. baumannii keine weiteren Transporter für die Aufnahme von Cholin gibt, jedoch weitere primär aktive oder sekundär aktive Transporter für die Aufnahme von Glycinbetain. Weiterhin konnten innerhalb dieser Arbeit die KM-Werte der Transporter bestimmt werden. Verschiedene Virulenz- und Infektionsanalysen führten zu dem Schluss, dass die Transporter keine Rolle bei der Virulenz von A. baumannii spielen. In Genomanalysen konnten die Gene, die für die Enzyme des Oxidationsweges von Cholin zu Glycinbetain kodieren identifiziert werden (Cholin-Dehydrogenase (betA), GlycinbetainAldehyd-Dehydrogenase (betB) und ein potenzieller Regulator (betI)). Es wurden Deletionsmutanten innerhalb dieses Genclusters generiert, mit dessen Hilfe gezeigt werden konnte, dass Cholin unter Salzstress ausschließlich als Vorläufer für das kompatible Solut Glycinbetain fungiert und nicht als kompatibles Solut von A. baumannii genutzt werden kann. Virulenz- und Infektionsstudien mit den Deletionsmutanten zeigten, dass der Cholin-Oxidationsweg keine Rolle bei der Virulenz von A. baumannii spielt.
Die Cholin-Dehydrogenase BetA wurde zusätzlich in E. coli produziert und anschließend mittels NiNTA-Affinitätschromatographie aufgereinigt. Die biochemische Charakterisierung des Enzyms zeigte, dass BetA membranständig ist und die höchste Aktivität bei einem pH-Wert von 9,0 hat. Salze wie NaCl oder KCl hatten keinen Effekt auf die Aktivität des Enzyms, während Glutamat die Aktivität stimulierte.
Weiterhin konnte FAD als Cofaktor identifiziert werden und der KM-Wert ermittelt werden. Zudem konnte gezeigt werden, dass die Oxidation von Cholin zu Glycinbetain unter isoosmotischen Bedingungen zu einem Anstieg der ATP-Konzentration in A. baumannii-Zellsuspensionen führt und damit, dass Cholin als alternative Energiequelle genutzt wird. Das Phospholipid Phosphatidylcholin konnte als natürliche Cholinquelle identifiziert werden. Eine Rolle der Phospholipasen D bei der Abspaltung der Cholin-Kopfgruppe des Phosphatidylcholins konnte ausgeschlossen werden. Die Gene für die Oxidation von Cholin zu Glycinbetain werden ausschließlich in Anwesenheit von Cholin exprimiert, jedoch unabhängig von der extrazellulären Salzkonzentration. Diese Studien zeigten, dass der Cholin-Oxidationsweg eine Rolle in der metabolischen Adaptation von A. baumannii an den Wirt spielt. Phosphatidylcholin kann hier als natürliche Cholinquelle im Wirt genutzt werden, da die Wirtsmembranen aus bis zu 70 % Phosphatidylcholin bestehen. Transportstudien mit Carnitin führten zu dem Schluss, dass der Transporter Aci01347 aus A. baumannii neben Cholin ebenfalls Carnitin transportiert. Wachstumsversuche mit einer aci01347-Mutante bestätigen, dass Aci01347 essenziell für die Aufnahme und anschließende Verwertung von Carnitin als Kohlenstoffquelle ist. Es konnte weiterhin gezeigt werden, dass das Transportergen mit essenziellen Genen für den Carnitin-Abbau in einem Operon liegt. Für die Analyse des Abbauweges von Carnitin wurden markerlose Deletionsmutanten innerhalb des Operons generiert. In Wachstumsstudien mit diesen Mutanten konnte der Abbauweg aufgeklärt werden und der Regulator des Operons identifiziert werden. Carnitin wird hier über Trimethylamin und Malat-Semialdehyd zu D-Malat umgewandelt und anschließend über Pyruvat in den TCA-Zyklus eingespeist. Der Regulator wurde zusätzlich in E. coli produziert und mittels Ni-NTA-Affinitätschromatographie aufgereinigt. Mithilfe von EMSA-Studien konnte die Bindestelle des Regulators auf eine 634 Bp lange DNA-Sequenz stromaufwärts des CarnitinOperons eingegrenzt werden. Durch Transkriptomanalysen konnte gezeigt werden, dass bei Wachstum mit Acetylcarnitin, Carnitin und D-Malat die Expression des Carnitin-Operons induziert wurde. Darüber hinaus wurden die Gene konservierter Aromatenabbauwege wie z. B. des Homogentisatweges, des Phenylacetatweges und des Protocatechuat-Abbaus, verstärkt exprimiert. In G. mellonellaVirulenzstudien konnte eine Rolle des Abbaus von Carnitin bei der Virulenz von A. baumannii nachgewiesen werden. Zusätzlich konnte dieser Effekt dem entstehenden Trimethylamin zugesprochen werden...
Dieser Arbeit war zum Ziel gesetzt, Methoden zur Simulation von neuronalen Prozessen zu entwickeln, zu implementieren, einzusetzen und zu vergleichen. Ein besonderes Augenmerk lag dabei auf der Frage, wo eine volle räumliche Auflösung der Modelle benötigt wird und wo darauf zugunsten von vereinfachenden niederdimensionalen Modellen, die wesentlich weniger Ressourcen und mathematischen Sachverstand erfordern, verzichtet werden kann. Außerdem wurde speziell bei der Beschreibung der verschiedenen Modelle für die Elektrik der Nervenzellen das Anliegen verfolgt, deren Zusammenhänge und die Natur vereinfachender Annahmen herauszuarbeiten, um deutlich zu machen, an welchen Stellen Probleme bei der Benutzung der weniger komplexen Modelle auftreten können.
In etlichen Beispielen wurde daraufhin untersucht, inwieweit die Vereinfachung auf ein eindimensionales Kabelmodell sowie der Verzicht auf die Betrachtung einzelner Ionensorten die realistische Darstellung der zellulären Elektrik beeinträchtigen können. Dabei stellte sich heraus, dass alle betrachteten Modelle für das rein elektrische Verhalten der Neuronen im Wesentlichen dieselben Ergebnisse liefern, weshalb zu dessen Simulation in den allermeisten Fällen ein 1D-Kabelmodell völlig ausreichend und angezeigt sein dürfte.
Nur wenn Größen von Interesse sind, die in diesem Modell nicht erfasst werden, etwa das Außenraumpotential oder die Ionenkonzentrationen, muss auf genauere Modelle zurückgegriffen werden. Außerdem ist in einer Konvergenzstudie exemplarisch vorgeführt worden, dass bereits eine recht grobe Darstellung der zugrundeliegenden Rechengitter genügt, um korrekte Ergebnisse bei der Simulation der rein elektrischen Signale sicherzustellen.
In scharfem Kontrast steht hierzu die Simulation von einzelnen Ionen-Dynamiken. Bereits in der Untersuchung des Poisson-Nernst-Planck-Modells für das Membranpotential erwies sich, dass für eine korrekte Simulation der diffusiven Anteile der Ionenbewegung wesentlich feinere Gitter benötigt werden.
Noch viel deutlicher wurde dies in Simulationen von Calcium-Wellen in Dendriten, wo -- neben anderen Einsichten -- aufgezeigt werden konnte, dass nicht nur eine feine axiale
(und Zeit-) Auflösung der Dendritengeometrie zur Sicherstellung exakter Ergebnisse notwendig ist, sondern auch die räumliche Auflösung in die übrigen Dimensionen wichtig ist, weswegen eine eindimensionale Kabeldarstellung der Calcium-Dynamik erheblich fehlerbehaftet und
(jedenfalls im Zusammenhang mit Ryanodin-Rezeptorkanälen) von deren Nutzung dringend abzuraten ist. Auch die Darstellung von Kanälen als eine kontinuierliche Dichte in der Membran kann, wie darüber hinaus vorgeführt wurde, problematisch sein.
Ihre exaktere Modellierung, etwa durch Einbettung auch probabilistischer Einzelkanaldarstellungen in das räumliche Modell sollte in zukünftigen Arbeiten noch mehr thematisiert werden.
Mit Blick auf die Wiederverwendbarkeit bereits implementierter Funktionalität innerhalb dieser Arbeiten wurden spezielle Teile dieser Funktionalität hier in einem gesonderten
Kapitel genauer beschrieben. Als komplexes Beispiel für das, was simulationstechnisch bereits im Bereich des Machbaren
liegt, und gleichsam für eine Anwendung, die zeigt, wie möglichst viele der im Rahmen dieser Arbeit entwickelten Methoden miteinander kombiniert werden können, wurde die
Calcium-Dynamik eines kompletten Dendriten innerhalb eines großen aktiven neuronalen Netzwerks simuliert.
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Eine verzögerte und mitunter unvollständige Immunrekonstitution nach allogener Stammzelltransplantation (SZT) birgt ein erhöhtes Risiko für Infektionen und das Auftreten eines Rezidivs. Adoptive Immuntherapien können dazu beitragen, die Immunrekonstitution zu beschleunigen. Die Indikation hierzu ist jedoch streng geregelt, da eine zusätzliche Immuntherapie mit Risiken, wie z.B. dem Auftreten einer Graft-versus-Host-Disease (GvHD), verbunden ist. Im Mittelpunkt dieser Arbeit steht die Untersuchung der Immunrekonstitution im Hinblick auf das Auftreten von Komplikationen und das Überleben nach SZT. Dazu wurde ein multivariates Normwertmodell entwickelt, das die Beurteilung der Rekonstitution verschiedener Leukozytensubpopulationen ermöglicht. Der Einfluss der Regeneration spezifischer Immunzellen wie Cytomegalievirus-spezifischer T-Zellen (CMV-CTLs) und regulatorischer T-Zellen (Tregs) auf den Verlauf nach SZT wurde insbesondere hinsichtlich CMV-bedingter Komplikationen, GvHD und Rezidiv untersucht.
Development of lentiviral vectors for the gene therapy of X-linked chronic granulomatous disease
(2010)
Es gibt eine Vielzahl von Erkrankungen, die auf einen einzelnen Gendefekt zurückzuführen sind (monogene Erkrankungen). Darunter befindet sich auch die Gruppe der primären Immundefizienzen (PIDs), von denen aktuell über 150 verschiedene Typen von der Weltgesundheitsorganisation registriert sind. In vielen fällen leiden betroffene Individuen unter einem stark erhöhten Infektionsrisiko durch bakterielle oder virale Pathogene, sowie den damit verbundenen schweren Symptomen - bis hin zum verfrühten Tod der Patienten. Meist können PIDs mit konventionellen Methoden präventiv behandelt werden. Dazu gehören zum Beispiel die regelmässige Gabe von Antibiotika, Antimykotika, Zytokinen oder Immunglobulinen. Der einzige zur Verfügung stehende kurative Behandlungsansatz beruht auf der Transplantation von hämatopoietischen Stammzellen (HSZT) eines gesunden und passenden Spenders. Häufig steht jedoch kein histokompatibler Spender zur Verfügung.
Für diese Patientengruppe hat sich die gentherapeutische Behandlung mit autologen hämatopoietischen Stammzellen als eine gute Option herausgestellt. Der Beweis hierfür wurde eindrucksvoll in klinischen Heilversuchen für zwei Formen des Schweren Kombinierten Immundefekts (X-SCID und ADA-SCID) geführt, einer Erkrankung die durch das vollständige Fehlen bzw. die nicht-Funktionalität der lymphoiden Immunzellen charakterisiert ist. Autologe hämatopoietische Stammzellen der Patienten wurden hier ex vivo mittels eines gamma-retroviralen Vektors mit einer funktionellen Kopie der defekten cDNA genetisch modifiziert und anschliessend zurück infundiert. In der Summe wurde bei über 30 Patienten eine deutliche Verbesserung des Gesundheitszustandes bis hin zur vollständigen Heilung erzielt. Bei einem vergleichbaren Ansatz wurden in Frankfurt, in einem Heilversuch für die septische Granulomatose (X-CGD), erstmals klinisch relevante Erfolge in der Gentherapie für einen Defekt in der myeloischen Linie von Immunzellen erzielt. Ursache der X-chromosomal gekoppelten Form der septischen Granulomatose sind Mutationen in dem Gen für gp91phox (CYBB), einer essentiellen Untereinheit des in Phagozyten benötigten NADPH-Oxidase Komplexes. In der Folge sind die Phagozyten dieser Patienten nicht mehr in der Lage, die für das Abtöten von Krankheitserregern nötigen reaktiven Sauerstoffspezies zu bilden. Ständig wiederkehrende schwere Infektionen mit sonst unproblematischen Erregern sind die Folge.
Neben klaren gesundheitlichen Verbesserungen in der Mehrzahl der Patienten hatte diese Gentherapeutische Behandlungsstrategie in einigen Fällen auch klare Nebenwirkungen. In fünf von 20 Patienten mit X-SCID, sowie in beiden behandelten X-CGD Patienten, kam es infolge der Therapie zu hämatologischen Veränderungen, die in der Ausbildung eines myelodysplastischen Syndroms (bei X-CGD) und Leukämie (bei X-SCID) mündeten. In allen Fällen war die Ursache eine Hochregulierung von Proto-Onkogenen in der Nähe von g-retroviralen Integrationsstellen. Diese Probleme demonstrieren deutlich die unbedingte Notwendigkeit zur Verbesserung der verwendeten therapeutischen Vektoren.
In der vorliegenden Arbeit wurden lentivirale Vektoren mit myeloid-spezifischen Promotoren entwickelt und auf ihre Eignung für die Gentherapie der X-chromosomal gekoppelten septischen Granulomatose getestet. Lentivirale Vektoren besitzen ein stark verringertes Risiko für Insertionsmutagenese, sowie die exklusive Fähigkeit ruhende Zellen zu transduzieren. Die Verwendung von myeloid-spezifischen Promotoren für die Transgenexpression verringert die Wahrscheinlichkeit der Proto-Onkogen Aktivierung in unreifen Stamm- und Vorläuferzellen – einer Zellpopulation die besonders sensitiv für die in der Leukämieentstehung obligaten Schritte der Immortalisierung und Transformation ist. Gleichzeitig bleibt der volle therapeutische Nutzen erhalten, da das Transgen gp91phox nur in reifen myeloischen Zellen benötigt wird.
Die entwickelten lentiviralen Vektoren exprimieren eine kodonoptimierte gp91phox cDNA unter der Kontrolle des microRNA223-Promoters (223), des MRP8-Promotors (M) oder eines chimären Fusionspromoters bestehend aus den regulatorischen Bereichen des Cathepsin G und des cFes-Promotors (Chim). Zusätzlich wurde ein sogenanntes „ubiquitär aktives Chromatin-öffnendes Element“ (UCOE) in beiden Orientierungen vor den MRP8-Promotor kloniert, um eine erhöhte und stabile Langzeitexpression des Transgens zu erreichen. Ziel der Arbeit war die Selektion eines geeigneten Kandidaten für präklinische Versuchsreihen.
Die für die Evaluierung der Vektoren relevanten Parameter waren die Transgenexpressionslevel, die Spezifität der Expression für myeloische Zellen sowie die vermittelte funktionelle Rekonstitution der NADPH-Oxidase Aktivität. Die Fragestellungen der Langzeitexpression, der Anfälligkeit für CpG-Methylierung sowie der Genotoxizität der Vektoren wurden ebenfalls bearbeitet. Die Vektoren wurden in vitro in verschiedenen Zelllinien sowie in in vitro differenzierten primären murinen und humanen Blutstammzellen getestet. Die beiden besten Kandidaten (223 und Chim) wurden in vivo in Maustransplantationsexperimenten (Maus-Maus und humane Stammzellen in NOD/SCID-Mäuse) analysiert.
Die beiden lentiviralen Vektoren 223 und Chim eignen sich beide für eine effiziente Expression in myeloische Zellen, die zur funktionellen Rekonstitution der NADPH-Oxidase Aktivität in vitro und in vivo führen. Sie sind den bisher in klinischen Anwendungen verwendeten Vektoren in allen Parametern klar überlegen. Daher ist in zukünftigen klinischen Anwendungen ein verbesserter therapeutischer Nutzen für die Patienten sowie eine Verminderung des Risikos von Nebenwirkungen zu erwarten.
Infektionen durch multiresistente Erreger führen jährlich zum Tod von ca. 33.000 Menschen in Europa.192 Insbesondere ist eine weltweite Zunahme von multiresistenten Gram-negativen Bakterien zu verzeichnen.193 Im Rahmen dieser Arbeit wurden zwei Projekte bezüglich der Resistenzmechanismen gegenüber Beta-Laktam-Antibiotika bei Gram-negativen Bakterien bearbeitet.
Das Gammaproteobakterium Psychrobacter sanguinis PS2578 wurde im März 2015 von einem Neonaten isoliert und verursachte eine early onset Neugeboreneninfektion. Aufgrund der insuffizienten Datenlage bezüglich Diagnostik, Antibiotikaresistenz und Pathogenität von Psychrobacter spp. wurden diese Aspekte weiter evaluiert. P. sanguinis zeigte geringes Wachstum auf Blutagar und keinerlei Wachstum in Standardnährmedien. Als optimales Nährmedium erwies sich das Spezialmedium BHI mit 10% Fetalem Kälberserum, wobei eine Abhängigkeit des Wachstums von FCS beobachtet wurde. Die Virulenz des klinischen Isolats sowie des Referenzstamms P. sanguinis DSM 23635 war in einem in vivo Infektionsmodell vergleichbar mit klinischen Escherichia coli und Klebsiella pneumoniae Isolaten sowie dem phylogenetisch nahe verwandten Acinetobacter calcoaceticus DSM 30006. Demnach ist die Spezies P. sanguinis moderat virulent und als humanpathogen anzusehen. Als molekulares Äquivalent der phänotypischen Penicillinresistenz wurde die Carbenicillinase CARB-8 (RTG-3) identifiziert, wodurch die These gestützt wird, dass der Genus Psychrobacter spp. ein mögliches Genreservoir von Carbenicillinasen darstellt.3 Im Rahmen dieser Arbeit konnte das Genom der Spezies erstmals komplett sequenziert werden. Es beinhaltete ein Chromosom von 2.946.289 bp, ein größeres Plasmid von 49.981 bp und ein kleineres Plasmid von 11.576 bp, welches blaCARB-8 kodierte.
Der Nachweis von Carbapenem-resistenten Gammaproteobacteria hat sich von 2010 zu 2017 in Deutschland mehr als verzehnfacht. Dabei ist OXA-48 die häufigste Carbapenemase in Europa und tritt vor allem bei den Spezies K. pneumoniae und E. coli auf.75 In dieser Arbeit wurden 62 klinische Stämme hinsichtlich ihres Plasmidtyps und ihres Verwandtschaftsgrads untersucht.
In der Klonalitätsanalyse gehörten 25 (n=44) K. pneumoniae derselben klonalen Linie an. Hiervon wurden 22 (n=25) Isolate in den Jahren 2010 und 2011 isoliert, was einen klonalen Ausbruch vermuten lässt.158 Bei der Spezies E. coli (n=8) waren lediglich zwei Stämme klonal verwandt. Insgesamt indizierten diese Ergebnisse eine hohe Diversität der klinischen Isolate. Die Plasmidtypisierung hingegen zeigte, dass 95% der Stämme (n=62) ein IncL Plasmid aufwiesen. Basierend auf den Selektionskriterien Klonalität und Plasmidtyp wurden 21 Stämme für weitere Analysen mittels Multilocus-Sequenz-Typisierung und Transkonjugation ausgewählt. Es konnten sehr hohe Konjugationsfrequenzen von 7,51 x 10-1 im Intraspezies- und von 8,15 x 10-1 im Intergenus- HGT für das blaOXA-48 IncL Plasmid in vitro ermittelt werden. Unter Verwendung von Galleria mellonella Larven als in vivo Transkonjugationsmodell wurde eine Transkonjugationsfrequenz von nahezu 100% detektiert. Daher lässt sich vermuten, dass der HGT von Antibiotikaresistenzgenen im Darm eines Patienten eine sehr viel höhere Effizienz aufweisen könnte, als bisher basierend auf in vitro generierten Daten angenommen. Dies impliziert, dass die globale Verbreitung von OXA-48 auf dem effizienten horizontalen Gentransfers eines einzigen IncL Plasmids beruht und nicht auf der Expansion einer bestimmten klonalen Linie.
Die CT-Diagnostik gewinnt auch über 100 Jahre nach der Entdeckung der Röntgenstrahlung noch immer weiter an Bedeutung im klinischen Alltag. Insbesondere im Bereich des Stagings und der onkologischen Follow-Up-Untersuchungen zählt die Ganzkörper-CT derzeit vielerorts als diagnostischer Goldstandard. Dabei muss jedoch in Kauf genommen werden, dass es zur Applikation nicht unerheblicher Dosiswerte kommt. Das Risiko von Folgeschäden ist dabei nicht von der Hand zu weisen, wobei das Folgemalignom als besonders gefürchtete Komplikation gilt. Die Optimierung der Computertomographie und die Minimierung möglicher Folgeschäden ist daher Gegenstand konstanter klinischer Forschung. Dennoch muss eine Reduktion der Strahlendosis nur äußerst feinfühlig erfolgen, da sie auf technischer Ebene eng mit der realisierbaren Bildqualität korreliert.
Ziel der vorliegenden Arbeit war es, die Nutzen eines 150 kV + Sn Zinnfilter- Protokolls am Gerät Siemens Somatom Force zu untersuchen. Hierbei sollte vor allem darauf eingegangen werden, wie viel Strahlendosis durch die Implementierung eines solchen Protokolls eingespart werden kann, wie sich das Protokoll auf die subjektive und objektive Bildqualität auswirkt, sowie welcher weitere klinische Nutzen zu erwarten ist. Bisher konnten sich ähnliche Protokolle bereits im Rahmen anderer Fragestellungen als nützlich beweisen.
Insgesamt 40 Patienten mit Ganzkörper-Staging im Rahmen eines Multiplen Myeloms wurden in die Studie inkludiert (28 Frauen, 12 Männer). Diese wurden im vereinbarten Untersuchungszeitraum mit dem durch die Ethikkomission genehmigten Studienprotokoll (150 kV + Sn Force) untersucht und waren jeweils retrospektiv auch Teil der anderen Gruppen gewesen (120 KV Definition AS, 120 KV Flash, 120 kV Force).
Auch wenn der intraindividuelle Vergleich inhärent mit einer höheren statistischen Power einhergeht, wurden sicherheitshalber an vordefinierten Stellen Querdurchmesser der Patienten erhoben, um biometrische Gleichheit zu beweisen.
Hier ließen sich keine signifikanten Unterschiede messen. Die Bilddaten der Patienten wurden randomisiert und doppelt verblindet von zwei dem Projekt fremden und berufserfahrenen Radiologen hinsichtlich der subjektiven Bildqualität ausgewertet. Ein Bezug zu den technischen Hintergrundinformationen der Aufnahme war zu keinem Zeitpunkt möglich.
Anschließend erfolgte die statistische Auswertung objektiver Daten. Zum Vergleich der Bildqualität wurden jeweils gemittelte Schwächungswerte aus Muskeln aus artefaktfreien und aus von Artefakten beladenen Arealen erhoben. Aufgrund des homogenen Charakters der Muskeln wurde die ebenso jeweils gemittelte Standardabweichung dieser Strukturen als Hintergrundrauschen definiert. Hieraus wurde eine SNR errechnet.
Der Vergleich von Dosiswerten erfolgte über die aus dem Patientenprotokoll entnehmbaren Angaben, insbesondere des CTDI. Gemeinsam mit den erhobenen Querdurchmessern wurde hieraus eine SSDE gebildet.
Bei allen subjektiven Vergleichen der Studiengruppe (150 kV + Sn Force) wurde bei jeweils starker Korrelation nach Spearman und starker bis sehr starker Übereinstimmung nach Cohen eine gute bis sehr gute Bildqualität attestiert. Damit stellt das Untersuchungsprotokoll Bilder durchweg besser als das Referenzprotokoll auf den Geräten Somatom Definition AS und Somatom Definition Flash dar. Im Direktvergleich zum Referenzprotokoll auf dem Somatom Force ist das Studienprotokoll jeweils mindestens gleichwertig.
Im objektiven Vergleich der Bildqualität zeigte sich als Gütekriterium zunächst, dass Muskeln artefaktfreier Areale in allen vier Gruppen gleich gut dargestellt werden. Bereits bei der Betrachtung der Schwächungswerte artefaktbeladener Muskeln wurde deutlich, dass die anderen Protokolle mit signifikant höherem Signalverlust zu kämpfen haben. Auch das Bildpunktrauschen war in der Studiengruppe (150 kV + Sn Force) überwiegend signifikant niedriger, als das der anderen Gruppen. Lediglich in Artefaktarealen des Untersuchungsabschnitts cCT/HWS konnte die Gruppe 120 kV Force vergleichbar niedrige Rauschwerte aufweisen (p = 1), der Vergleich der SNR wiederholte dieses Ergebnis.
CTDI und SSDE der Gruppe
150 kV Force zeigten im Untersuchungsabschnitt cCT/HWS insbesondere der Gruppe 120 kV Force gegenüber signifikante Dosiseinsparungen von ca. 42 %, im Abschnitt Tho-Knie sogar 64%.
Zusammenfassend zeigte sich durch die Implementierung des Studienprotokolls also mehrheitlich eine Verbesserung sowohl der subjektiven, als auch der objektiven Bildqualität. Bei einer durchschnittlichen Reduktion der applizierten Strahlendosis von ca. 40-60 % (gegenüber dem Referenzprotokoll am Somatom Force) ist der Einsatz des Studienprotokolls für die hier untersuchte Fragestellung im klinischen Alltag also uneingeschränkt zu empfehlen.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Verschiedene Studien konnten bereits demonstrieren, dass Versuchspersonen dazu tendieren, ihre Aufmerksamkeit eher zu Gesichtern mit bedrohlichem Ausdruck als zu solchen mit neutralem Ausdruck zu orientieren. In der vorliegenden Studie wurde mittels neurokognitiver Verhaltensexperimente versucht, diesen als „Attentional Bias“ in Millisekunden messbaren Ef-fekt zu replizieren und unter Wahrnehmungsbedingungen von unbewusst bis bewusst zu un-tersuchen. Entscheidend war hierbei, in wie weit die verschiedenen Wahrnehmungsbedingun-gen zu einem Attentional Bias unterschiedlicher Stärke oder sogar verschiedener Polarität führen, i.e. einer Hinwendung oder einer Abwendung der Aufmerksamkeit gegenüber bedrohlichen Gesichtern. Die Gegenüberstellung von bewusster und unbewusster Wahrnehmung bedrohlicher Gesichter stand hierbei im Kontext der Hypothese, dass unbewusst und bewusst wahrgenommene bedrohliche Gesichter über zwei verschiedene neuroanatomische Wege verarbeitet werden und deshalb die Orientierung der Aufmerksamkeit unterschiedlich beeinflussen. Zur Messung des Attentional Bias wurde die „Dot-Probe-Aufgabe“ verwendet. Um die verschiedenen Wahrnehmungsbedingungen zu stellen wurden dabei vier verschiedene Präsenta-tionszeiten (17, 34, 100 und 400 ms) sowie die Technik der Rückwärtsmaskierung benutzt. Da in anderen Studien häufig ein Einfluss der Ängstlichkeit von Probanden auf deren Aufmerksamkeitsorientierung dargestellt werden konnte, wurde auch eine Gruppierung der Probanden in hoch-, niedrig- und durchschnittlich ängstliche vollzogen; dies jedoch primär in dem Interesse, die Ängstlichkeit als entscheidende Einflussgröße ausschließen und möglichst allgemeingültige Aussagen machen zu können. Unter unbewusster Wahrnehmung (17 ms Präsentationszeit) zeigte sich ein signifikanter, negativer Attentional Bias von -5,46 ms (t (29) = -2,57, p = 0,02), hingegen waren die Attentional Bias-Werte bei den längeren Präsentationszeiten nicht signifikant von Null verschieden. Für die Präsentationszeit als eigener Faktor zeigte sich ein marginal signifikanter Einfluss auf den Attentional Bias (F (3, 87) = 2,20, p = 0,09). Die nach Gruppierung der Probanden in über-, unter- und durchschnittlich ängstliche erfolgte Auswertung konnte sowohl für die unter- wie auch die überdurchschnittlich ängstlichen Probanden (nicht jedoch für die durchschnittlich ängstlichen) einen Trend zu einer Abwendung der Aufmerksamkeit von bedrohlichen Gesichtern bei unbewusster Wahrnehmung zeigen. Angesichts dieses Befundes bleibt offen, wie sehr die Gesamtergebnisse gerade durch diese Gruppen geprägt worden sind. Die Ergebnisse lassen darauf schließen, dass unter Bedingungen unbewusster Wahrnehmung bedrohliche Gesichter zu einer Abwendung der Aufmerksamkeit (negativer Attentional Bias) führen. Dies steht im klaren Kontrast zu den Ergebnissen von Mogg und Bradley (1999a) und Fox (2002). Es wird somit in Frage gestellt, dass bedrohliche Gesichter bei unbewusster Wahrnehmung Aufmerksamkeit auf sich ziehen und nicht zu einer Abwendung dieser führen. Weiter deuten die Ergebnisse darauf hin, dass bei zunehmendem Einfluss bewusster Wahrnehmung zwischen bedrohlichen und neutralen Gesichtern kein Unterschied bezüglich ihrer Wirkung auf die Aufmerksamkeitsorientierung besteht. Verschiedene Ansätze werden hier als mögliche Erklärung eines negativen Attentional Bias bei unbewusster Wahrnehmung diskutiert. Die unterschiedliche Richtung der Aufmerksamkeitsorientierung unter bewusster im Vergleich zu unbewusster Wahrnehmung spricht für eine frühe, unbewusst erfolgende, grobe Ver-arbeitung bedrohlicher Gesichter, sowie eine später erfolgende, komplexere Verarbeitung die-ser, welche mit einer Neubewertung einhergeht. Im Kontext der bestehenden Literatur macht das Ergebnis der Studie deutlich, dass die Zusammenhänge zwischen der Orientierung unserer Aufmerksamkeit, emotionalen visuellen Eindrücken und unserem Bewusstsein noch nicht ausreichend geklärt sind. Es bedarf weiterer Forschung
Im Zuge der Arbeitsbeschaffung, der Aufrüstung und der nachfolgenden Kriegsfinanzierung stand der nationalsozialistischen Regierung ein Bündel prinzipieller Finanzierungsalternativen zur Verfügung. Bei der Finanzierung der Arbeitsbeschaffungsmaßnahmen griff das Regime auf das vorhandene Instrumentarium der Vorgängerregierungen zurück. Insofern war das Prinzip der Wechselfinanzierung zur kurzfristigen Mobilisierung von Liquidität keine Innovation der NS-Regierung, sondern lediglich die Fortsetzung einer bereits praktizierten Finanzierungsmethode. In Hinblick auf die Faktoren „Ergiebigkeit“ und „zeitlicher Verfügbarkeit“ musste im Rahmen der Kriegsfinanzierung primär auf die kurzfristige Verschuldung zurückgegriffen werden. Keine andere Finanzierungsalternative hätte – unter Berücksichtigung der „Blitzkriegstrategie“ und dem damit verbundenen außerordentlichen Mittelbedarf - in solch kurzer Zeit die erforderliche Finanzkraft ohne Reibungsverluste und zeitliche Verzögerungen garantieren können. In steuerpolitischer Hinsicht schöpfte die Regierung zwar ansteigende Einkommen und Gewinne ab, doch fand die Steuergesetzgebung ihre Grenze in der gesellschaftlichen Akzeptanz sowie bei der Berücksichtigung distributionspolitischer Motive. Pläne zur weiteren Steuererhöhung oder gar zur Einführung neuer Steuern wurden zu Gunsten der Zustimmung in der Bevölkerung zur Regimepolitik verworfen. Das Primat der Fundierung kurzfristiger Kreditaufnahme wurde mit Fortdauer des Krieges aufgegeben. Die Konsolidierung der schwebenden Schulden hinkte dem Tempo des kurzfristigen staatlichen Kreditbedarfs mit Fortdauer des Krieges hinterher. Große Teile des Finanzierungsbedarfs wurden durch Enteignung und Kontribution gedeckt. Die übermäßige Beanspruchung ausländischer Volkseinkommen und – vermögen glich jedoch nur einen Teil des inländischen Geld-Gütermarkt-Ungleichgewichtes aus. Darüber hinaus waren mit der Besetzung ausländischer Territorien aber auch Kosten für die Versorgung der Bevölkerung verbunden. Selbst unter Missachtung jeglicher Humanität gegenüber der ausländischen Bevölkerung waren die Ressourcenbeiträge der besetzten Länder begrenzt. Bei der sog. „geräuschlosen Kriegsfinanzierung“ kamen verschiedene Instrumente zur Absorption überschüssiger Kaufkraft zum Einsatz. Langfristige Schuldpapiere wurden überwiegend nicht am freien Kapitalmarkt begeben, sondern direkt den Kapitalsammelstellen zugeteilt. Gesetzlich definierte Grenzen der Lohn- und Preisbildung sowie die Beschränkungen des Kapital- und Gütermarktes flankierten die Bemühungen um die Stilllegung überschüssiger Einkommen. Mit dem kriegsbedingten Ausufern des Mittelbedarfs schwand jede Rücksichtnahme auf die gesetzlichen und ökonomischen Grenzen. Die langfristige Verschuldung konnte fortan der kurzfristigen Kreditaufnahme nicht mehr folgen. Die Sparkassen stellten aufgrund ihrer Nähe zum Einzelkunden und ihres organisatorischen Aufbaues eine idealtypische Konstruktion für die Absorption von Spargeldern dar. Darüber hinaus hatten sie eine dominierende Stellung auf dem Spareinlagenmarkt.
Verletzungen der Fingerkuppen stellen einen häufigen Grund für die Vorstellung in der Notaufnahme dar. Während viele Verletzungen konservativ behandelt werden können, benötigen einige Patienten eine operative Versorgung. Dabei kommen verschiedene operative Verfahren zur Anwendung, darunter eine Fingerkuppenrekonstruktion mit einer neurovaskulären Insel-Lappenplastik.
Ziel der neurovaskulären Insel-Lappenplastik ist die Wiederherstellung einer taktil sensiblen und wieder belastungsfähigen Fingerkuppe ohne ein Längendefizit des Fingers.
In der vorliegenden Studie wurden Langzeit-Behandlungsergebnisse mit einer mittleren Nachuntersuchungsdauer von 105 Monaten bei 28 Patienten mit 29 durch neurovaskuläre Insel-Lappenplastiken rekonstruierten Fingerkuppen in der Berufsgenossenschaftlichen Unfallklinik Frankfurt am Main erfasst. Die untersuchten Patienten hatten zum Zeitpunkt der Verletzung ein Durchschnittsalter von 38,4 Jahren. Es handelte sich überwiegend um männliche und berufstätige Patienten.
Es wurden nur Fingerkuppenverletzungen mit freiliegenden Knochen (Allen-Klassifikation Zone III und IV) operativ versorgt. In unserer Studie traten am häufigsten die Verletzungen am Mittelfinger, Zeigefinger und Ringfinger auf. Die Mehrheit der Fingerkuppenverletzungen geschah in Folge eines Arbeitsunfalls, die Arbeitsunfähigkeitsdauer betrug ca. 6,1 Wochen. Die maximale Größe eines neurovaskulären Insel-Lappen lag bei 6 x 3,5 cm.
Alle Patienten waren mit den Behandlungsergebnissen anhand der numerischen Rating-Skala und des DASH Fragebogens bezüglich Funktionalität sowie dem ästhetischen Outcome zufrieden und würden sich wieder operieren lassen.
Die Sensibilität konnte anhand der Zwei-Punkte-Diskrimination sowie Semmes-Weinstein Monofilament-Testes als gut bewertet werden und normale physiologische Werte erreichen. Die Narbe war überwiegend weich und in der Mehrheit der Fälle entsprach sie anhand der Vancouver Scar Scale Werte annähend der normalen Haut. Zwei Drittel der Patienten gaben keine Schmerzen in Ruhe an. Die Hälfte der Patienten gaben Schmerzen unter Belastung anhand der numerischen Rating-Scala an.
Trotz der hohen Anzahl von Krallennagelbildungen in 56,5 % und einer Differenz der Nagellänge bzw. Form waren alle Patienten mit dem Erhalt des Nagels zufrieden und haben dies subjektiv nicht als störend empfunden.
Als besonders beeinträchtigend wurde eine Kälteempfindlichkeit von 48,3 % Patienten beschrieben.
Der Mittelwert der Fingerkraft im Schlüsselgriff mit Hilfe des Pinch-Gauge zwischen Daumen und den vier Fingerspitzen im Wechsel wurde bei fast allen Messungen an den gesunden Fingern gering größer gemessen ohne eine statistisch signifikante Differenz. Die Messung der Handkraft mittels Jamar-Dynamometer ergab ein Defizit von 8,8 % (Vergleich betroffene zur gesunden Hand).
Bei drei von 24 Patienten hat sich eine Beugekontraktur im Interphalangealgelenk von 5°, 15°, 20° und bei einem von 22 Patienten im distalen Interphalangealgelenk von 10° gebildet. Zum Nachuntersuchungszeitpunkt wurden durch die Untersucherin ein Hoffmann-Tinel- Zeichen in 24,1 % und Druckschmerz in 17,2 % im Bereich der verletzten Fingerkuppe festgestellt. Subjektiv empfand kein Patient diese Symptome als störend und alle berufstätigen Patienten konnten ihre vor dem Unfall ausgeübte Tätigkeit wieder aufnehmen. Diese Studie konnte belegen, dass die Defektdeckung der Fingerkuppenverletzungen mit Hilfe von neurovaskulären Insel-Lappenplastiken ein sehr gutes ästhetisches und funktionelles Ergebnis mit einer fast identischen Hautqualität erzielt. Mit dieser Methode konnte eine Wiederherstellung des Weichteilgewebes der sensiblen Fingerkuppe auch bei großflächigen Defekten der Fingerkuppe erreicht werden. Die subjektive Patientenzufriedenheit mit dieser Rekonstruktionsmethode ist hoch.
Es wurden mit phys. Verfahren hergestellte 200 und 500 nm dicke Niobfilme auf oxidiertem Si thermischen Kurzzeitprozessen (RTP) unterzogen, um Oxynitride zu synthetisieren. Die Filme wurden mit verschiedenen Methoden untersucht, um einen Überblick über die entstandenen Produkte und ihre Position im Film zu erlangen. Die Reaktionen wurden in N2 oder NH3 zur Nitridierung mit anschließender Oxidation in O2 durchgeführt. Um eine mögliche direkte Einstufensynthese von Oxynitriden des Niobs zu finden, wurde N2O eingesetzt. Der einfachste Ansatz zur Präparation von Oxynitriden bestand in der Verwendung des N2 und NH3, mit denen die Metallfilme zwischen 600 und 1200 °C umgesetzt wurden. Die Nitridierung mit N2 verlief von der Bildung einer festen Stickstofflösung in Niob bei tiefen Temperaturen über Nb2N zwischen 700 und 1000 °C bis zum Nb4N3 oberhalb 1000 °C. Aus dem Substrat diffundierte Sauerstoff aus, der am Interface Nb/SiO2 zur Bildung einer Oxidzone führte. Der O-Gehalt der Oxide stieg mit steigender Reaktionstemp. Unterhalb 1000 °C wurde NbO gefunden, oberhalb 1000 °C bildete sich NbO2. Eine TEM-Untersuchung gekoppelt mit EEL-Spektrometrie ergab Hinweise auf die Bildung einzelner stickstoffreicher NbOxNy-Kristallite im Bulk der mit N2 umgesetzten Filme. Auch die Nitridierung mit NH3 ergab eine Abhängigkeit des N-Gehaltes der Produkte von der Rkt.-Temperatur. Es erfolgte die Bildung der festen Lösung und Nb2N bei tiefen und mittleren Temperaturen. Ab 900 °C bildete sich NbN, oberhalb 1100 °C wurde vermutlich Nb4N5 detektiert. Im Gegensatz zur Umsetzung mit N2 ergaben genauere Untersuchungen der in NH3 nitridierten Filme keine Hinweise auf die Bildung von Oxynitriden. Die Erstellung von Tiefenprofilen zeigte, dass sich Nitridphasen mit höchstem N-Gehalt an der Oberfläche befanden und der Anteil des Stickstoffs in den Produkten mit zunehmender Tiefe abnahm. Mit Oxiden verhielt es sich umgekehrt: Sobald höhere Oxide gebildet wurden, befanden sie sich am Interface, wo die Sauerstoffkonzentration am höchsten ist. Oxide mit niedrigerem O-Gehalt wurden in der Filmmitte gefunden, wo der Sauerstoff durch die gebildeten Nitride an der Diffusion in Richtung Filmoberfläche gehindert wurde. Die 200-nm-Filme waren formal reaktiver als die 500-nm-Filme. Sie bildeten bereits bei tieferen Temperaturen Phasen mit höherem N- oder O-Gehalt, wofür das geringere zur Verfügung stehende Volumen ursächlich ist. Die Reinheit der Filme führte zu Unterschieden in der Reaktivität: Gesputterte Filme waren reiner als aufgedampfte Filme, die auf Grund der Einlagerung einer geringen Sauerstoffmenge während der Präparation passiviert waren. Dadurch wurde die Diffusion des Stickstoffs eingeschränkt zur Bildung abweichender Phasen zwischen aufgedampften und gesputterten Filmen. Eine Variante der Nitridierung in N2 bzw. NH3 bestand in der Verwendung von O2 als Kühlgas. Die Zugabe des O2 wurde bei unterschiedlichen Temperaturen untersucht. Statt der Einlagerung von Sauerstoff in das Oberflächennitrid unter Oxynitridbildung kam es zur Bildung einer oxidischen Deckschicht. Die Bildung der Schicht erforderte eine Zugabetemperatur höher als 700 °C, bei tieferen Temperaturen war der Film durch das bereits gebildete Nitrid soweit passiviert, dass keine chemische Veränderung stattfand. Die im Nitridierungsschritt gebildeten Produkte wurden als Auswirkung des sog. Schneepflugeffektes unter Kompression in tiefere Filmregionen verschoben. Dies führte zur Bildung von Produkten höherer Stöchiometrie (Nb2N zu NbN oder NbO zu NbO2). Der Einsatz von Lachgas, der zur Einlagerung von N2O-Einheiten in den Metallfilm führen sollte, verlief ergebnislos. Bei Prozesstemperaturen unterhalb 450 °C wurde lediglich die Bildung einer festen Lösung von Sauerstoff im Niob nachgewiesen. Oberhalb 450 °C zersetzte sich N2O unter O-Bildung wodurch der Film oxidiert wurde. Die Umsetzung nitridierter Filme mit N2O und auch dessen Verwendung als Kühlgas brachte keine Veränderung. Die Oberflächennitride waren stabil gegenüber dem N2O. Die Nitridierung der Filme im N2-Strom wurde durch die stoßweise Zugabe von O2 bzw. N2O nach definierten Zeiten variiert. Die Filme bilden nach kurzen Nitridierungszeiten von maximal 20 s gefolgt von einem 10-sek. Sauerstoffstoß eine komplizierte Filmstruktur aus, wie das elementare Tiefenprofil zeigt, das in denselben Filmzonen sowohl Stickstoff als auch Sauerstoff nachweist. Da die Röntgendaten lediglich die Bildung von NbO2 nachweisen, jedoch mit einer leichten Verschiebung der Reflexe zu kleineren Winkeln aufgrund der Einlagerung der größeren Nitridionen in das Oxidgitter, muss es sich bei dem präparierten Film um ein Oxynitrid der Form NbO(2-x)Nx handeln, in dem das Verhältnis von N zu O auf der sauerstoffreichen Seite liegt.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Die im Rahmen dieser Arbeit durchgeführten Untersuchungen führten zu folgenden Ergebnissen:
1. In-silico Analysen von putativen Apoptose-Faktoren im Genom von P. anserina
Es konnten mehrere Gene, die in einer Apoptose-Maschinerie involviert sein könnten, im Genom von P. anserina identifiziert werden. Diese Homologen wurden in zwei Ka-tegorien unterteilt: (i) die nicht-mitochondrialen Proteine PaMCA1, PaMCA2 und PaPARP und (ii) die Homologen des Apoptose-induzierenden Faktors AIF.
2. Einfluss der Metacaspase-Aktivität auf programmierte Zelltodprozesse
Mithilfe von Aktivitätsmessungen konnte eine Arginin-spezifische Aktivität der Meta-caspasen nachgewiesen werden. Diese Metacaspase-Aktivität nimmt in seneszenten Kulturen und nach H2O2-Behandlung signifikant zu. Diese Ergebnisse unterstützen die Hypothese eines programmierten, ROS-induzierten Zelltods im letzten Entwicklungs-stadium des Alternsmodell P. anserina.
3. Die Rolle von AIF-Homologen in der Entwicklung von P. anserina
GFP-Fusionsproteine identifizierten eine mitochondriale Lokalisation der AIF-Homologen PaAIF2, PaAMID2 und PaPRG3. Desweiteren konnte eine altersabhängige PaAIF2-Translokation von den Mitochondrien zum Zellkern gezeigt werden, ähnlich der Apoptose-induzierenden Translokation von humanem AIF. Die Deletion von PaAif2 und PaAmid2 führte zu einer signifikanten Resistenz gegenüber oxidativem Stress und zu einer Verlängerung der Lebensspanne. Diese Befunde weisen auf einen ROS-induzierten, AIF-vermittelten Zelltod hin, der an der Lebensspannen-Kontrolle von P. anserina beteiligt ist.
4. Die Funktion des Proteins PaCYPD bei Seneszenz und programmiertem Zelltod
Membranpotential-Messungen konnten einen Rückgang des mitochondrialen Memb-ranpotentials von 21 % bei den PaCYPD-Überexpressionsstämmen nachweisen. Durch die Behandlung mit dem spezifischen PaCYPD-Inhibitor CSA konnte das Membranpo-tential wieder normalisiert werden. Zusammen mit dem detektierten Verlust von
7 Zusammenfassung
125
Cytochrom c in den Mitochondrien der Überexpressionsstämme wird durch diese Studi-en die Vermutung einer PaCYPD-abhängigen Öffnung der mPTP untermauert. Die Pa-PaCypD-Deletion führte zu einer signifikanten Resistenz gegenüber mitochondrial-abhängigem, oxidativem Stress und gegenüber verschiedenen Apoptose-Induktoren. Die Überexpression von PaCypD hingegen führte zu einem beschleunigten Alterungspro-zess (Präseneszenz), einem verschlechterten Resistenzverhalten gegenüber Stress- und Apoptose-Induktoren und zu einer massiven Verkürzung der Lebensspanne. Die Le-bensspanne konnte aber durch die Behandlung mit CSA wieder auf Wildtyp-Niveau verbessert werden. Dies weist auf einen PaCYPD-vermittelte Zelltod hin. Interessan-terweise konnte durch das Wachstum auf CSA-haltigem Medium auch die Lebensspanne des Wildtyps verlängert werden. Um die hier nachgewiesene, lebensver-längernde Wirkung von CSA zu verifizieren, könnte diese Studie leicht auf andere Modellorganismen übertragen werden.
Knochenszintigraphie beim Mammakarzinom - nur bei Knochenschmerzen und erhöhten Tumormarkern?
(2010)
Im Rahmen dieser retrospektiv angelegten Dissertation wird die Wertigkeit der beiden Indikatoren „Tumormarker“ und „Knochenschmerzen“ als Entscheidungsbasis zur Durchführung einer Knochenszintigraphie beim Mammakarzinom untersucht. Des Weiteren geht es um die Frage, ob es diesbezüglich Unterschiede in den einzelnen UICC-Stadien gibt. Zur Überprüfung des Indikators „Knochenschmerzen“ wurden die Daten von insgesamt 474 Patientinnen (Grundkollektiv) erfasst und ausgewertet. Auf dieser Basis wurde der Indikator „Tumormarker“ für ein weiteres Kollektiv von 253 Patientinnen untersucht. In beiden vergleichbaren Kollektiven wurden die Ergebnisse der Indikatoren mit denen der Knochenszintigraphie im Rahmen des Primärstagings (PS) und von Follow up-Untersuchungen (KO) in den einzelnen UICC-Stadien verglichen und Vierfeldertafeln angelegt, deren Auswertung mittels Fisher-Test erfolgte. Im Rahmen des Grundkollektivs wurden zwei Varianten getestet, wobei bei der Ersten eine örtliche Korrelation zwischen dem Schmerz der Patientin und dem Szintigraphiebefund bestehen musste, um das Gesamtergebnis als pathologisch zu werten. Bei der zweiten Variante war dies unbedeutend. Die erste Variante zeigte im PS und in den KO allseits unsignifikante Ergebnisse (p>0,05), wobei im PS eine Gesamtindikatorensensitivität von 21% erzielt wurde bei einer Indikatorenspezifität von 91%. Im Rahmen der KO betrugen diese 39% und 55%, wobei hier ein Anstieg der Indikatorenspezifität proportional zum UICC-Stadium von 50% auf 65% beobachtet wurde. Des Weiteren konnten keine Stadienunterschiede festgestellt werden. In der zweiten Variante zeigte sich eine deutliche Signifikanz des Gesamtkollektivs im Rahmen des PS (p<0,01), bei einer Indikatorensensitivität von nur 30% und einer Spezifität von 92%. Die Ergebnisse bei den KO waren unsignifikant (p> 0, 05), mit einer Indikatorensensitivität von 46% und einer Indikatorenspezifität von 60%, wobei auch hier ein Spezifitätsanstieg proportional zum Stadium von 60% auf 100% verzeichnet wurde ohne sonstige stadienspezifische Unterschiede. Im Rahmen der KO wurden zur Deckung der Fallzahl Mehrfachuntersuchungen miteinbezogen, die zu einer Verfälschung des Ergebnisses geführt haben könnten. Zur Untersuchung der Tumormarker wurden CEA und CA 15.3 als Indikatoren erfasst und mit den Ergebnissen des Skelettszintigramms ebenfalls in zwei Varianten verglichen. Im Rahmen der ersten Variante wurde der Gesamtindikator lediglich als „positiv“ gewertet, wenn beide Werte positiv waren. Bei der zweiten Variante wurde der Gesamtindikator auch als positiv gewertet, wenn lediglich einer der Werte oder beide positiv waren. Die Ergebnisse des PS im Rahmen der ersten Variante erwiesen sich als unsignifikant (p>0,1), bei einer Indikatorensensitivität des Gesamtkollektivs von 8% und einer Spezifität von 86%. Die Ergebnisse der KO waren deutlich signifikant (p<0,001), bei einer Indikatorensensitivität von 68% und einer Indikatorenspezifität von 83% ohne Unterschiede der Variante in den Einzelstadien. In der zweiten Variante konnten im Rahmen des PS ebenfalls keine signifikanten Ergebnisse erzielt werden (p>0,1). Die Gesamtindikatorensensitivität lag hier bei 25%, bei einer Indikatorenspezifität von 63%. Auch bei dieser Variante waren die Ergebnisse der KO allseits signifikant (p<0,001). Lediglich das UICC IV-Kollektiv wies eine verminderte Signifikanz auf (p=0,095), was auf die kleine Fallzahl von 35 Patientinnen zurückzuführen sein könnte, da sich auch die Indikatorensensitivität und - spezifität nicht von den Werten der anderen UICC-Stadien unterschieden. Die Gesamtindikatorensensitivität lag bei 90%, die Spezifität bei 50% ohne Unterschiede im Bezug auf die Einzelstadien. Im Rahmen einer logistischen Regression mit Abbau wurden folgende Indikatoren mit eingeschlossen: Schmerzen, Tumormarker einzeln (CEA und CA 15.3), Lymphknotenstatus, Hormonrezeptorstatus und UICC-Stadium. Der Vorteil lag darin, dass Mehrfachuntersuchungen vermieden wurden. Im Gesamtassay wurde der höchste Vorhersagewert mit 76,6% erreicht. Dieser unterscheidet sich im Wesentlichen nur marginal von der Aussagekraft der reinen CA 15.3-Bestimmung (75,0%), wobei hier die Indikatorensensitivitäten beide bei 76,8% liegen, bei leicht verminderter Indikatorenspezifität in der CA 15.3-Gruppe. Dasselbe gilt allerdings auch für den Assay aus Schmerzen, CEA und CA 15.3, da Schmerzen und CEA praktisch keinen Einfluss auf die Modellgüte haben. Ein Assay aus Lymphknotenstatus und CA 15.3 verbessert die Indikatorensensitivität auf bis zu 78,6%, wobei die Gesamtvorhersagegüte auf Grund einer deutlich verminderten Indikatorenspezifität von 69,4% allgemein niedriger ist (73,4%). In der Praxis wäre der Lymphknotenstatus als Indikaton jedoch schwer umzusetzen. Im Allgemeinen kann man aus den Ergebnissen schließen, dass der Indikator „Schmerzen“ in keinem Fall ein geeignetes Kriterium zur Entscheidungsfindung für eine Knochenszintigraphie ist. Auch hat sich gezeigt, dass der Tumormarker CEA von minderer Relevanz bei dieser Entscheidung ist. Es konnten des Weiteren keine relevanten Unterschiede im Bezug auf die einzelnen UICC-Stadien festgestellt werden. Der am besten geeignete Assay besteht aus CA 15-3 als Einzelindikator mit einer Indikatorensensitivität von 76,8%. Da jede vierte Patientin mit Skelettmetastasen im Rahmen dieses Assays jedoch übersehen würde, ist es nicht vertretbar, sich in jedem Fall nur auf diesen Indikator zu stützen, weil vorangehende Arbeiten gezeigt haben, dass eine frühzeitige Erkennung und Therapie von Skelettmetastasen zu einer deutlichen Verminderung der Morbidität führt.
Die Röntgenstrukturanalyse ist eine der wichtigsten analytischen Methoden zur Bestimmung der Kristallstrukturen und zur Aufklärung von Struktur-Eigenschaftsbeziehungen. Voraussetzung für eine Röntgenstrukturanalyse ist ein Einkristall mit einer Größe von ca. 1-10 mikro m. Jedoch gibt es eine Vielzahl an Verbindungen, bei denen es aufgrund ihrer geringen Löslichkeit nicht gelingt, hinreichend große Kristalle zu erzeugen. In dieser Arbeit konnte aufgezeigt werden, dass die Kristallstrukturen solcher schwerlöslichen Verbindungen aus Röntgenpulverdaten bestimmt werden können. Organische Pigmente haben eine geringe Löslichkeit. Sie werden daher im Anwendungsmedium nicht gelöst, sondern fein dispergiert. Die Teilchengrößen liegen typischerweise im Bereich von 50-500 nm. Bedingt durch die Schwerlöslichkeit lassen sich nur selten Einkristalle züchten. Jedoch kann die Kristallinität häufig durch Lösungsmittelbehandlung verbessert werden. Dies ermöglicht die Strukturbestimmung aus den Röntgenpulverdaten. Die untersuchten organischen Pigmente haben allesamt ungewöhnliche Eigenschaften: So zeigen beispielsweise Pigment Yellow 101 und einige seiner Derivate sowie einige mesoionischen Pigmente Fluoreszenz im Festkörper. Die Fluoreszenz-Eigenschaften dieser Verbindungen waren bisher nur begrenzt verstanden. In dieser Arbeit konnten sieben Kristallstrukturen von festkörperfluoreszenten Pigmenten bestimmt und so ein Beitrag zum Verständnis der Festkörper-Fluoreszenz geleistet werden. Pigment Yellow 183 und Pigment Yellow 191 sind gelbe verlackte Azopigmente, die großtechnisch zur Einfärbung von Kunststoffen verwendet werden. Hier konnten erstmals Einkristalle erhalten werden, und drei Kristallstrukturen bestimmt werden. Alle drei Kristallstrukturen weisen ungewöhnliche Strukturmerkmale auf: eine der beiden Sulfonatgruppen koordiniert nicht an das Ca2+-Ion oder an ein Lösungsmittelmolekül, sondern bildet nur intermolekulare van der Waals-Wechselwirkungen. Wodurch elektrostatisch ungünstige Separation von Kation (Ca2+) und Anion (RSO3-) verursacht wird, bleibt unklar. Die Benzimidazolon-Pigmente sind industriell sehr wichtige Azo-Pigmente mit exzellenter Lichtstabilität und hervorragender thermischer Stabilität. Im Rahmen dieser Arbeit gelang es erstmals, Einkristalle eines Solvates eines kommerziellen Benzimidazolon-Pigmentes zu züchten und die Struktur durch Röntgenstrukturanalyse zu bestimmen. Bei zwei weiteren kommerziellen Benzimidazolon-Pigmenten wurden die Kristallstrukturen aus Röntgenpulverdiagrammen bestimmt, wobei die Strukturlösung mit simulated-annealing-Methoden (Programm DASH) erfolgte. Das Pigment Yellow 213 ist ein neu entwickeltes Pigment für Wasserbasislacke, welches sich durch seine hohe Lichtechtheit auszeichnet. Mithilfe der Kristallstruktur konnten Eigenschaften dieser Verbindungen erklärt werden. Alle kommerziellen Azo-Pigmente liegen im Festkörper nicht in der Azoform, sondern in der hydrazon-tautomeren Form vor. Die Pigmente sind daher, streng genommen, keine Azo-Pigmente, sondern Hydrazon-Pigmente. Es gibt jedoch Ausnahmen: Für zwei p-dialkylamino-substitutierte Azopigmente auf beta-Naphthol-Basis konnte durch Einkristallstrukturanalysen aufgezeigt werden, dass die Azoform im Festkörper überwiegt. Es handelt sich hierbei also um den seltenen Fall „wirklicher Azo-Pigmente“. Die in dieser Arbeit untersuchten Verbindungen Bis-(acetoacetyl)-p-phenylen-diamin (DAEP) und 5-(Acetoacetylamino)benzimidazolon sind Vorprodukte für die Synthesen verschiedener industrieller Azo-Pigmente. Bei beiden Verbindungen gelang es, die Kristallstrukturen aus Röntgenpulverdiagrammen zu lösen. Die Orientierung der endständigen -COCH3-Gruppen lässt sich allerdings nicht mit Sicherheit feststellen (weil ein O-Atom fast die gleiche Streukraft besitzt wie eine CH3-Gruppe). Die Pulverstrukturlösungen wurden daher mit Gitterenergieberechnungen mittels dispersion-korrigierten Dichtefunktionalrechnungen kombiniert. Derartige dispersions-korrigierte DFT-Rechnungen im Festkörper könnten zukünftig auch in anderen Fällen zur Validierung von Kristallstrukturen, die aus Röntgenpulverdaten bestimmt wurden, dienen. Die Verbindungen Omeprazol, Rasagilin und Risedronat sind pharmazeutische Wirkstoffe. An verschiedenen Salzen dieser pharmazeutischen Wirkstoffe wurden Polymorphieuntersuchungen durchgeführt. Dabei wurden für Omeprazol vier, für Rasagilin eine und für Risedronat vier neue Phasen gefunden. Zudem konnten für Rasagilin und Omeprazol jeweils eine und für Risedronat drei Kristallstrukturen bestimmt werden, die es erlauben Eigenschaften wie außergewöhnliche Feuchtigkeitsbeständigkeit oder Bioverfügbarkeiten zu erklären. Für Risedronat wurde ein bisher unbekanntes Solvat gefunden (Essigsäure Disolvat), das patentiert wurde. Auch hier konnte die Kristallstruktur aufgeklärt werden. In dieser Arbeit wird aufzeigt, dass es bei schwerlöslichen Pigmenten, deren Vorprodukten sowie von pharmazeutischen Wirkstoffen in etlichen Fällen möglich ist, Einkristalle zu züchten (wenn auch mit großem Aufwand), sodass man die Kristallstrukturen durch Röntgenstrukturanalyse ermitteln kann. Für die Verbindungen, bei denen keine hinreichend großen Einkristalle erhalten werden konnten, gelang es in den meisten Fällen, die Kristallstrukturen aus Röntgenpulverdiagrammen zu bestimmen, und anschließend Struktur-Eigenschaftsbeziehungen abzuleiten.
Dass Emotionen den Subjekten eine wichtige Orientierungshilfe in jeglichen Situationen des Alltags bieten, gilt innerhalb der soziologischen Emotionsforschung mittlerweile als Allgemeingut. Was allerdings, wenn uns unsere Gefühle im Stich lassen, da sie nicht klar eingeordnet oder expliziert werden können? Was also, wenn widersprüchliche Emotionen Zweifel nähren, uns an Entscheidungen hadern lassen oder gar Entscheidungen verunmöglichen? Die hieraus resultierenden Unsicherheiten und sich daran anschließenden Handlungsprobleme sind Gegenstand des Buches. Neben Strategien des Umgangs mit emotionalen Ambivalenzerfahrungen stehen auch die individuellen Lösungswege im Mittelpunk der Analyse.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
In dieser Arbeit geht es um Kristallstrukturbestimmung und -modellierung ausgewählter organischer Pigmente sowie metallorganischer Polymere. Der feste – und insbesondere kristalline – Zustand der Materie ist von (im wahrsten Sinne des Wortes) tragender und weitreichender Bedeutung für die moderne Wissenschaft, Technologie, den Alltag überhaupt.
Die Kenntnis über den inneren (mikroskopischen)Aufbau des Festkörpers ermöglicht es zunächst, seine (makroskopischen) Eigenschaften zu verstehen. Genannt seien z. B. nicht-lineare optische Eigenschaften, die in der typischen anisotropen Struktur des kristallinen Festkörpers begründet liegen, mechanische Stabilität von Werkstoffen wie Metallen oder Legierungen, aber auch die Eigenschaften von Pigmenten: Was macht eine Substanz zu einem Pigment? Wann ist ein Pigment ein gutes, wann ein weniger gutes Pigment? Die Antworten auf diese Fragen finden sich u. a. in der Kristallstruktur: Packungsdichte, (Schwer-)löslichkeit, etc.
Die Eigenschaften von Substanzen mit sichtbaren Low-Spin–High-Spin-Übergängen lassen sich auch nur verstehen, wenn der innere Aufbau, die Kristallstruktur, bekannt ist. Was geht im Inneren vor, wenn solche Substanzen einem äußeren Einfluss wie beispielsweise Temperaturänderung ausgesetzt werden? Ist es nicht so, dass z. B. ein High-Spin-Fe2+-Ion einen größeren effektiven Radius als ein Low-Spin-Fe2+-Ion hat? Dehnt sich die Kristallstruktur aus, „atmet“ sie?
Die Kenntnis der Kristallstruktur ermöglicht es nicht nur, die Eigenschaften zu verstehen. Umgekehrt ist es auch möglich, diese Eigenschaften gezielt zu manipulieren: Verbesserung der Pigmenteigenschaften durch Herabsetzen der Löslichkeit, Veränderung der elektronischen und magnetischen Kopplungen in niedrig-dimensionalen Polymerketten, um nur zwei zu nennen.
Zum Leidwesen des Chemikers, des Physikers und des Kristallographen besteht in den Eigenschaften, die z. B. Pigmente als „gut“ auszeichnen, das größte Problem: die mangelnde Löslichkeit der Verbindung. Es ist genau diese Eigenschaft, die dafür sorgt, meist keine Einkristalle züchten zu können, massive Schwierigkeiten beim Umkristallisieren zu haben und letztendlich – wenn keine Einkristalle vorliegen – bei der Strukturbestimmung aus Pulverdaten breite, überlappende Reflexe separieren zu müssen.
Dennoch gibt es nützliche und bewährte Methoden, auch aus (sogar nur mäßigen) Pulverdaten eine Kristallstruktur zu lösen. Genannt seien hier quantenchemische Rechnungen, die unter Umständen sehr rechen- und zeitintensiv sein können, oder Kraftfeld-Methoden, die zwar nicht sehr exakte, aber immerhin doch brauchbare Ergebnisse mit vertretbarem Zeit- und Rechenaufwand liefern. Diese Methoden sind insbesondere dann zur Vorhersage von Kristallstrukturen geeignet, wenn das Pulverdiagramm nicht indizierbar ist.
Wenn die Struktur erst gelöst ist, ist die bewährte Methode der Strukturverfeinerung die Rietveld-Methode. Obwohl oder gerade weil die Methode mittlerweile zu einer „Black- Box“-Methode geworden ist, ist die genaue Analyse und Interpretation der Ergebnisse unabdingbar.
Es gibt genügend Beispiele, in denen vermeintlich gute Ergebnisse (struktur-)chemisch sinnlos sind.
Themenstellung
Pigmente spielen in der Industrie eine wesentliche Rolle. Im Gegensatz zu Farbstoffen sind Pigmente im Anwendungsmedium unlöslich, sie werden feinkristallin dispergiert, um z. B. in Autolacken oder Kunststoffen eingesetzt zu werden.
Im Rahmen dieser Arbeit wurden die Kristallstrukturen von 13 Pigmenten bestimmt.
Zu den genannten Kristallstrukturbestimmungen kommt ein Kapitel mit einer grundsätzlichen Fragestellung: Wo sind die Grenzen der Strukturbestimmung aus Pulverdaten? Wann ist eine Kristallstruktur „richtig“ oder „falsch“?
Ein letztes Pigment verknüpft die beiden vorangehenden Punkte.
Das letzte Kapitel behandelt die Erstellung von 5 Modellstrukturen aus zwei Substanzklassen für niedrig-dimensionale metall-organische Festkörper.
Beide Substanzklassen wurden im Rahmen der Forschergruppe 412 („Spin- und Ladungsträgerkorrelationen in niedrigdimensionalenmetallorganischen Festkörpern“)der DFG hinsichtlich elektronischer und magnetischer Eigenschaften untersucht.
Obwohl zahlreiche zelluläre Funktionen von RNAs in direktem Zusammenhang mit Proteinen stehen, wurde auch eine Vielzahl von, unter anderem regulatorischen, RNA-Motiven identifiziert, die ihre Funktion ohne eine initiale Beteiligung von Proteinen ausüben. Das detaillierte Verständnis der zu Grunde liegenden Regulationsmechanismen beinhaltet die Charakterisierung von beteiligten RNA-Architekturen und deren funktionaler Stabilitäten, von dynamischen Aspekten der RNA-Faltungsprozesse sowie die Korrelation dieser Charakteristika mit zellulären Funktionen. Im Rahmen dieser Arbeit wurden strukturelle, thermodynamische und kinetische Aspekte der Ligand-bindenden Guanin Riboswitch-RNA Aptamerdomäne des xpt-pbuX Operons aus B. subtilis und eines Cofaktor-abhängigen katalytischen RNA-Motivs, des 'Adenin-abhängigen Hairpin Ribozyms', untersucht. ...
Diese Arbeit untersucht den Einfluss des Game-Design auf ausgelöste Lernprozesse und den Erfolg von Serious Games. Hierzu werden Game-Design Paradigmen entwickelt, die als Richtlinien für Konzeption und Umsetzung eines Serious Game dienen. Als Serious Games werden Videospiele bezeichnet, die zur Wissensvermittlung konzipiert worden sind. Dabei sollen die motivationalen Faktoren eines Videospiels genutzt werden, um einen intrinsisch motivierten Lernprozess auszulösen. Das Bewertungkriterium für den Erfolg einer Spielmechanik ist somit die Erfüllung der Lernziele. Damit dieses Erfolgskriterium genauer untersucht werden kann, werden die ausgelösten Lernprozesse differenziert betrachtet. In der Literatur werden folgende Lernprozesse hervorgehoben: Der Prozess des Erfahrungslernens und metakognitive Prozesse. Darüber hinaus sind Eigenschaften der Zielgruppe, wie Alter oder Geschlecht weitere wichtige Faktoren. Das dieser Arbeit zu Grunde liegende Forschungsframework setzt sich wie folgt zusammen: Lernszenario, Lernprozess und Lernerfolg. Das Lernszenario ist durch folgende Faktoren charakterisiert: Game Characteristics (Eigenschaften des Serious Game), Instructional Content (Arbeitsanweisungen und Trainingsetting) sowie Player Characteristics (Eigenschaften der Zielgruppe). Diese Parameter bedingen den Lernprozess, welcher unter dem Aspekt des Erfahrungslernens und der Metakognition analysiert wird. Eine besondere Problemstellung in den Player Characteristics ergibt sich aus dem sogenannten Net-Generation Konflikt. Mit Net-Generation wird die Generation bezeichnet, welche mit neuen Medien wie Internet und mobiler Kommunikation aufgewachsen ist. Diese besitzt im Unterschied zu älteren Generationen ein anderes Lernverhalten. Um die Aspekte des Net-Generation Konflikts und die Auswirkungen auf den Lernprozesses untersuchen zu können, wird ein Serious Game entwickelt, dessen Spielmechanik sich an folgenden Game-Design Paradigmen ausrichtet: Akzeptanz, Leichte Zugänglichkeit, Spielspaß und die Unterstützung des Lernprozesses. Dieses Serious Game FISS (Fertigungs- und Instandhaltungs-Strategie Simulation) wird bei der Daimler AG seit 2008 zur Ausbildung von Ingenieuren eingesetzt. FISS simuliert eine Fertigungslinie, die mit Hilfe geeigneter Wartungsstrategien und effizientem Personaleinsatz erfolgreich geführt werden soll. Die Spielmechanik orientiert sich an dem Genre der Rundenstrategie und wird in einem Anwesenheitstraining im Team durchgeführt. Hervorzuheben ist, dass die Zielgruppe bezüglich des Alters inhomogen ist und deshalb der Net-Generation Konflikt berücksichtigt werden muss. Im Anschluss wird FISS unter folgenden Aspekten untersucht: Der Prozess des Erfahrungslernens, metakognitive Prozesse und die Integration der Non-Net-Generation. Die Ergebnisse zeigen, dass die Eigenschaften des Game-Design einen signifikanten Einfluss auf den Prozess des Erfahrungslernens und die Lernerfolge besitzen. Spieler mit einem praktischen Zugang zu Lerninhalten (Concrete Experience) erzielten einen signifikant größeren Wissenzuwachs. Zudem profitierten alle Spieler von FISS, jedoch konnte in einer Vorstudie kein Einfluss metakognitiver Fähigkeiten auf den Wissenzuwachs nachgewiesen werden. Die weitere zentrale Studie dieser Arbeit fokussiert den Net-Generation Konflikt und evaluiert den Erfolg der eingangs aufgestellten Game-Design Paradigmen. Hierzu werden die Teilnehmer nach drei Altersgruppen getrennt betrachtet: Non-Net-Generation, Net-Generation und die dazwischen liegende Crossover-Generation. Es zeigt sich, dass der Lern- und Spielerfolg aller Generationen gleichermaßen signifikant ist und nur innerhalb des zu erwartenden Standardfehlers abweicht. FISS eignet sich folglich für alle Generationen. Diese Ergebnisse können stellvertretend für Serious Games im Genre der Rundenstrategie gesehen werden. Die in dieser Arbeit erzielten Ergebnisse ermöglichen ein besseres Verständnis der Auswirkungen des Game-Design auf den Lernerfolg. Hiermit können potentielle Schwachstellen eines Serious Game erkannt und vermieden werden. Die Erkenntnisse im Bereich des Erfahrungslernens ermöglichen zudem eine bessere Anpassungen an die Zielgruppe. Für die zukünftige Forschung wurde mit dem in dieser Arbeit entwickelten Framework eine Grundlage geschaffen.
Im ersten Teil dieser Arbeit wurde eine Variante des Anti-Thrombin-Aptamers HD1 entwickelt, die vor Belichten aktiv war und sich durch Belichten deaktivieren ließ. Dazu wurde das Wildtyp-Aptamer am 5'-Ende um eine GAAA-Schleife und eine Gegenstrangregion, bestehend aus vier Nukleotiden, erweitert. Dies reichte für eine vollständige Inaktivierung des Aptamers aus. In die Gegenstrangregion wurde ein photolabil geschütztes Nukleotid eingebaut, das die Bildung einer Haarnadelstruktur vorübergehend verhindert. Dazu wurde ein Desoxycytidin-Derivat synthetisiert, das an seiner N4-Position mit einer 1-(2-Nitrophenyl)ethyl-Gruppe modifiziert war. Durch die Maskierung der Antisense-Region wies das Aptamer vor Belichtung blutgerinnungshemmende Aktivität auf, allerdings in geringerem Maße als das Wildtyp-Aptamer. Durch Belichten wurde die Gegenstrangregion freigesetzt und dadurch die aktive Konformation des Aptamers zerstört, sodass es keine blutgerinnungshemmende Wirkung mehr besaß. In einem daran anknüpfenden Projekt sollte eine mit Licht ausschaltbare HD1-Variante mit verbessertem Schaltverhalten entwickelt werden, deren Aktivität vor dem Belichten mit der des Wildtyp-Aptamers vergleichbar ist. Tests zeigten, dass eine 5'-Erweiterung des Aptamers stets einen Aktivitätsverlust zur Folge hatte. Getestet wurden verschiedene Linker-Sequenzen, D-Spacer (Abasic Sites) und nicht nukleotidische Linker wie Glykollinker oder alkylische Linker. Eine Erweiterung am 3'-Ende brachte dagegen fast immer Aptamervarianten hervor, deren Aktivität die des Wildtypaptamers überstiegen. Um diese verbesserten Aptamervarianten zu deaktivieren, war eine Antisense-Region bestehend aus bis zu neun Nukleotiden nötig. Für eine photolabil geschützte Variante wurde zusätzlich ein Desoxyadenosinderivat mit N6-1-(2-Nitrophenyl)ethylmodifikation synthetisiert. Es zeigte sich, dass eine photolabile Schutzgruppe nicht ausreichte um die Antisense- Region zu neutralisieren. Aptamervarianten mit vier oder fünf photolabilen Schutzgruppen in der Antisenseregion waren vor dem Belichten aktiver als das Wildtyp-Aptamer HD1 und konnten durch Belichten vollständig deaktiviert werden. In einem weiteren Projekt dieser Arbeit wurde eine photolabil geschützte Glukosamin-6- phosphat-Variante synthetisiert, um eine lichtabhängige Spaltung des glmS-Ribozyms aus Bacillus subtilis zu induzieren. Dazu wurde GlcN6P an der Aminofunktion über eine Carbonyllinker mit einer 2-(2-Nitrophenyl) propylgruppe modifiziert. In vitro konnte gezeigt werden, dass mit dieser Verbindung durch Belichten die Spaltung eines glmS-EGFP-mRNA-Konstrukts induziert werden konnte. In HeLa-Zellen wurde untersucht, ob sich dieses System zur Regulation der EGFP-Expression eignet. Da erste Versuche erfolglos blieben, wurde eine lipophile, zellgängige Variante des photolabil geschützten GlcN6Ps synthetisiert. Versuche, in denen dieses Derivat getestet wird, werden zur Zeit von unseren Kooperationspartnern durchgeführt. In einem weiteren Projekt wurden Desoxyguanosinderivate für die DNA-Festphasensynthese synthetisiert, die an ihrer O6-Position mit einer p-Hydroxyphenacylgruppe bzw. mit einer 1-(3-Nitrodibenzofuran-2-yl)ethylgruppe modifiziert wurden. Diese wurden in ein Desoxyoligonukleotid eingebaut und es konnte gezeigt werden, dass die photolabilen Schutzgruppen durch Belichten abgespalten werden. Beide photolabilen Modifikationen waren allerdings unter den basischen DNA-Abspaltbedingungen zu instabil, als dass sie sich für den routinemäßigen Einsatz zur Herstellung lichtaktivierbarer Nukleinsäuren eignen würden. Im letzten Teil der Arbeit wurde eine photolabile Schutzgruppe entwickelt, die über einen zusätzlichen Aminolinker verfügt [2-(4-(Aminomethyl)-2-nitrophenyl)-propanol]. Die Aminofunktionalität war für die Dauer der DNA/RNA-Festphasensynthese mit einer Trifluoracetylgruppe geschützt, die unter den basischen Abspaltbedingungen ebenfalls entfernt wird. Mit dieser photolabilen Schutzgruppe wurden ein Thymidinderivat an der O4-Position und ein Desoxyguanosinderivat an der O6-Position modifiziert. Das Desoxyguanosinderivat wurde erfolgreich in der Oligonukleotidfestphasensynthese eingesetzt. Die photolabile Schutzgruppe konnte durch Belichten vollständig von der synthetisierten Nukleinsäure abgespalten werden. Darüber hinaus gelang es, über die Aminofunktionalität die heterobifunktionalen Crosslinker SMCC und SMPB mit der Nukleinsäure zu verknüpfen. Auf diese Weise ist eine reversible Vernküpfung der Nukleinsäure mit einem nahezu beliebigen Bindungspartner möglich. Durch Belichten kann die Nukleinsäure in ihrer ursprünglichen Form wiederhergestellt werden.
Diamant hat besondere physikalische und optische Eigenschaften sowie eine starke Resistenz gegenüber Strahlenschädigung. Diese Eigenschaften ermöglichen eine vielfältige Anwendung von Diamant in Wissenschaft und Technik, wie zum Beispiel als Sensormaterial in Strahlungsdetektoren.
Kubisches Zirconiumdioxid (ZrO2) wird aufgrund seiner mechanisch und optisch ähnlichen Eigenschaften unter anderem an Stelle von Diamant eingesetzt. Es ist ebenfalls ein geeignetes Material für viele technische Anwendungen und wird durch seine Strahlenresistenz in Strahlungsumgebungen verwendet. Da beide Materialien in diesem Anwendungsbereich hoher energetischer Strahlung ausgesetzt sind, sind Reaktionen auf die Bestrahlung wie etwa strukturelle Veränderungen oder die Änderungen von Materialeigenschaften von großem Interesse.
In der vorliegenden Arbeit wurde die Morphologie, Struktur und physikalischen Eigenschaften von Diamant und Yttriumoxid-stabilisiertem kubischem ZrO2 nach der Bestrahlung mit 14 MeV Au-Ionen und 1.6 GeV Au-Ionen untersucht. Die durch die Bestrahlung verursachten Veränderungen der Oberflächen und der bestrahlten Volumina wurden mit diversen komplementären analytischen Methoden charakterisiert, bewertet und für die verschiedenen Materialien und Ionenenergien verglichen.
Mittels Röntgenfluoreszenzmessungen wurde die Verteilung und Menge an implantiertem Au semi-quantitativ ermittelt. Die Oberflächen der Proben wurden mit optischer Mikroskopie, Rasterkraftmikroskopie, Rasterelektronenmikroskopie, Röntgenreflektometrie und Elektronenrückstreubeugung untersucht. Strukturelle Veränderungen wurden mit Raman-Spektroskopie analysiert. Der elektrische Widerstand, die Dichte, die Härte sowie das Ätzverhalten der bestrahlten Proben wurden ermittelt und geben Auskunft über die Änderung physikalischer Eigenschaften der Materialien.
Diamant und kubisches ZrO2 reagieren sehr unterschiedlich auf die Bestrahlung mit Au-Ionen gleicher Energien und Fluenzen. Die Diamantproben zeigen nach der Bestrahlung mit 14 MeV Au-Ionen deutliche Veränderungen und Schädigungen der Oberfläche sowie des bestrahlten Volumens. Es wird eine Änderung der Struktur, der Dichte, der Härte, des elektrischen Widerstands sowie des Ätzverhaltens der Proben beobachtet, was auf die Amorphisierung von Diamant zurückgeführt wird. Kubisches ZrO2 ist deutlich strahlungsresistenter gegenüber der Bestrahlung mit 14 MeV Au-Ionen. Es werden keine signifikanten strukturellen Änderungen im getesteten Fluenzbereich beobachtet.
Die mit 1.6 GeV Au-Ionen bestrahlten Diamanten zeigen nur geringe Schädigungen und keine deutliche Änderung der Struktur oder der physikalischen Eigenschaften. Die kubischen ZrO2 Proben sind als Folge der Bestrahlung mit 1.6 GeV Au-Ionen zerbrochen, was auf hohe interne Spannung durch Defektbildung zurückgeführt wird.
Klinische Frühergebnisse nach endoskopischer Lobektomie (VATS-Lobektomie versus daVinci-Lobektomie)
(2016)
In der vorliegenden Untersuchung wurden zwei operative Techniken zur endoskopischen Lobektomie miteinander hinsichtlich der Frühergebnisse verglichen. In die Untersuchung wurden alle Patienten einbezogen, die an der Abteilung für Thoraxchirurgie der Goethe Universität Frankfurt am Main zwischen April 2010 und Dezember 2012 wegen pulmonaler Karzinome minimal-invasiv lobektomiert wurden. Dabei wurden 34 Patienten einer Roboter-unterstützten Lobektomie sowie 25 Patienten einer VATS-Lobektomie unterzogen.
Es fanden sich keine signifikanten Differenzen in den präoperativen Daten und dem Risikoprofil der Patienten. Auch die intraoperativen Ergebnisse zeigten keine statistisch signifikanten Unterschiede. Postoperativ fand sich eine Tendenz zu höheren Tumorstadien sowie eine geringere Schmerzintensität bei den RATS-Patienten. Die Nachblutungsmenge war bei beiden Verfahren gering. Das klinische Outcome war vergleichbar, ebenso die geringe Morbidität und Komplikationsrate bei den beiden Verfahren.
Weitere Untersuchungen mit höheren Patientenzahlen sind erforderlich, um die Unterschiede zwischen den Verfahren zu untersuchen. Prinzipiell sind beide Verfahren geeignet um Patienten mit nicht-kleinzelligen Lungenkarzinomen in niedrigen Tumorstadien zu operieren.
Zur weiteren Verbesserung der Ergebnisse müssten für die RATS-Lobektomien spezielle Instrumente angefertigt werden. Die derzeit verwendeten Instrumente wurden ursprünglich für Koronargefäße oder urologische Operationen entwickelt, die sich in der Thoraxchirurgie oft als unzureichend erweisen. Zudem ist das Robotersystem stets in Entwicklung. Es sind kürzlich neue Instrumente eingeführt worden wie z.B. Klammernahtgeräte oder Instrumente, die für die automatische Durchtrennung kleinerer Gefäße zuständig sind. Manche Autoren beschreiben den Stapler, der eingesetzt wurde, noch als „mangelhaft“. Aus technischer Sicht fehlt immer noch das taktile Feedback, was jedoch teils durch die Erfahrung des Operateurs und mit Hilfe des 3-Dimensionalen Sehens kompensiert wird.
Diese Arbeit soll den ersten Grundbaustein bezüglich des postoperativen Schmerzmittelverbrauches nach einer videoassistierten- und roboterassoziierten Lobektomie legen. Wir sind uns sicher, dass dieses Thema in Zukunft weiter und noch detaillierter ausgearbeitet wird.
Nach den Studien von Flores und Alam wurden am Ende die Fragen gestellt:
➢ „Kann der Eingriff rein robotisch durchgeführt werden?
➢ Sind Op-Zeiten und Krankenhausaufenthalt kürzer?
➢ Sind die Inzisionen kleiner?
➢ Sind die postoperativen Schmerzen geringer?
➢ Ist das Verfahren billiger?“
Mit dieser vorliegenden Arbeit können die ersten vier Punkte aus der oben erwähnten Studie positiv bestätigt werden. Die Zugangswege sind kleiner bzw. gleich groß. In der Studie Kumar et al. wird ausdrücklich erwähnt, dass jedes Verfahren, welches durch die VATS geführt wird, mit dem Roboter noch besser auszuführen sei. Ein Problem stellen die Kosten dar. Wenn diese ebenfalls gesenkt werden können, würde einer flächendeckenden Verbreitung des Roboterverfahren nichts im Wege stehen. Die daVinci-Lobektomie ist zumindest eine geeignete Alternative im Vergleich zu der VATS-Lobektomie.
In dem vergangenen Jahrzehnt sah sich der Kindergarten vor neuen Herausforderungen gestellt, welche die Gesellschaft an ihn heranträgt: Das ist einerseits der gestiegene Anspruch an die Bildungsarbeit bereits im Kindergarten und andererseits der Anspruch an die bessere Vereinbarkeit von Familie und Beruf. Vor diesem Hintergrund werden in der vorliegenden Arbeit die Strukturen der pädagogischen Praxis im Kindergartenalltag analysiert und beschrieben.
Datengrundlage sind Videografien von Kindergartenalltagen in 61 Kindergartengruppen, davon 41 Aufnahmen in Deutschland und 20 in der Deutschschweiz. Zusätzlich wurden die strukturellen Rahmenbedingungen mit einem Fragebogen erhoben. Diese Daten entstanden im Rahmen der Studie „Professionalisierung im Elementarbereich“ (PRIMEL) (Kucharz et al., 2014), welche in der Linie „Ausweitung der Weiterbildungsinitiative Frühpädagogische Fachkräfte“ (AWiFF) vom BMBF gefördert wurde.
Zur Beantwortung der Fragestellung wurden in Anlehnung an Andrist und Chanson (2003) die Videografien inhaltsanalytisch (deskriptiv und induktiv ergänzt) hinsichtlich der gezeigten Strukturelemente kodiert, welche die Gestaltung eines Kindergartenalltags ausmachen: geführte Sequenz, freie Sequenz, angeleitete Sequenz und verbindende Sequenz. Mit Hilfe einer Clusteranalyse (Ward-Methode) wurden die unterschiedliche Verteilung der Sequenzen eines gezeigten Alltages gruppiert und somit einem Strukturierungsmuster (Cluster) zugeordnet. Die Clusteranalyse ergab, dass die Strukturen der pädagogischen Praxis drei Strukturierungsmuster bilden: „Kind-initiiert“, „Fachperson-initiiert“ und „Alltags-orientiert“. In allen Strukturierungsmuster kommen alle Strukturelemente vor. Kennzeichnend für das Strukturierungsmuster „Kind-initiiert“ ist das häufige Vorkommen der freien Sequenz und für das Strukturierungsmuster „Fachpersonen-initiiert“ die vielen geführten Sequenzen. Im Strukturierungsmuster „Alltags-orientiert“ machen verbindenden Sequenzen (Rituale, Routine, Essen und Übergänge), welche alltägliche Handlungen und Rituale umfassen, den größten Teil der Zeit aus.
Die Gestaltung des Mittagessens wurde in drei Videografien inhaltsanalytisch hinsichtlich der Arrangements analysiert. Hier ließen sich induktiv vier Kategorien – Instruktion/ Anweisung, Autonomie/Eigenständigkeit, Akzeptanz von Vorlieben und Abneigungen, Klima/Kultur/Rituale – herausarbeiten und drei Gestaltungstypen – „Familienähnlich“, „Mensaähnlich“ und „pädagogisches Familien-Restaurant“ – unterscheiden.
Die Ergebnisse zeigen auf, dass neben der Altersspanne der Kinder in der Gruppe, das Makrosystem (Länderebene) die Tagesgestaltung des Kindergartens stark beeinflusst. Die Sichtbarmachung der Strukturen auf der Mesoebene ermöglicht es, diese vergleichend zu diskutieren und Implikationen für die pädagogische Praxis abzuleiten.
Prokaryotische Organismen werden in ihrer natürlichen Umgebung mit schwankenden Umwelteinflüssen konfrontiert oder müssen gegebenenfalls extremen Bedingungen standhalten. Um sich an derartige Veränderungen anpassen zu können und damit ein weiteres Überleben zu sichern, ist es wichtig neue genetische Informationen zu akquirieren. Die molekulare Basis dieser Anpassung sind Genmutationen, Genverlust, intramolekulare Rekombination und/oder horizontaler Gentransfer. Der vorliegende Selektionsdruck der Umwelt begünstigt schlussendlich die Spezialisierung und damit die Erschließung neuer Standorte aufgrund des Erwerbs neuer metabolischer Eigenschaften, Resistenzgene oder Pathogenitätsfaktoren. Vergleichende Analysen bakterieller Genome, welche auf Analysen der GC-Gehalte, der Codon- und Aminosäurenutzung und der Genlokalisation beruhen, zeigten, dass bei diesem evolutiven Prozess bzw. der Weiterentwicklung der bakteriellen Genome der horizontale Gentransfer als treibende Kraft eine entscheidende Rolle spielt. So indizieren Genomstudien, dass 0-22% der gesamten bakteriellen und 5-15% der archaeellen Gene horizontal erworben wurden, wobei der DNA-Transfer nicht ausschließlich zwischen Vertretern einer Domäne, sondern ebenfalls zwischen Organismen unterschiedlicher Domänen stattgefunden hat. So sind z.B. 24 bzw. 16% der Gene von Genomen hyperthermophiler Organismen wie Thermotoga maritima oder Aquifex aeolicus archaeellen Ursprungs. Ebenso finden sich Gene für Chaperone und DNA-Reparaturenzyme im Genom des thermophilen Bakteriums Thermus thermophilus wieder, welche wahrscheinlich ebenfalls durch horizontalen Gentransfer aus hyperthermophilen und archaeellen Genomen erworben wurden um eine Anpassung an extreme Standorte zu ermöglichen. Durch vergleichende Genomstudien wurde ebenfalls festgestellt, dass die durch horizontalen Gentransfer erworbenen Gene oftmals zu einer Neuorganisation von Transkriptionseinheiten und zu einer veränderten Genomorganisation führten. Dennoch finden sich immer wieder Beispiele von horizontal erworbenen Operonen in den verschiedenen Organismen. Gut charakterisierte Vertreter horizontal übertragener Operone sind dabei z.B. das archaeelle H+-ATPase-Operon, das Operon der Na+-translozierenden NADH:Ubichitonoxidoreduktase oder das Nitratreduktase-Operon.
Man unterscheidet bei dem horizontalen Gentransfer zwischen drei Mechanismen der DNAAufnahme: Konjugation, Transduktion und Transformation. Die DNA-Übertragung durch Konjugation ist durch einen spezifischen Zell-Zell-Kontakt definiert, der durch einen von der Donorzelle ausgehenden, sogenannten F-Pilus hergestellt wird. Die Donorzelle überträgt schließlich Plasmid-kodierte genetische Informationen und oftmals Eigenschaften für die eigenständige Konjugation auf eine Rezipientenzelle. Die Transduktion hingegen beschreibt die DNA-Übertragung von Bakteriophagen auf eine Wirtszelle, wobei hier eine hohe Wirtsspezifität Voraussetzung ist. Die Übertragung der DNA von einer Bakterienzelle in eine andere erfolgt dabei ohne Kontakt der Zellen. Die natürliche Transformation ist definiert als Transfer von freier DNA und ermöglicht damit im Gegensatz zu den beiden ersten spezifischen Mechanismen der DNA-Übertragung ein größeres Spektrum der Verbreitung genetischer Informationen. Freie DNA, welche entweder durch Zelllyse oder Typ-IVSekretion ausgeschieden wird und aufgrund von Adsorption an mineralische Oberflächen über längere Zeiträume stabil in der Umgebung vorliegen kann, kann unter der Voraussetzung der Existenz eines speziellen Aufnahmesystems von Bakterien aufgenommen werden. Mittlerweile sind über 44 Bakterien aus unterschiedlichen taxonomischen Gruppen beschrieben, die eine natürliche Kompetenz ausbilden können. Die bekanntesten Beispiele für natürlich transformierbare Gram-negative Bakterien sind Heliobacter pylori, Neisseria gonorrhoeae, Pseudomonas stutzeri, Haemophilus influenzae, T. thermophilus und Acinetobacter baylyi. Auch unter den Gram-positiven Bakterien finden sich einige Vertreter, die natürlich kompetent sind, wie Deinococcus radiodurans, Bacillus subtilis und Streptococcus pneumoniae. Ungeachtet der relevanten Rolle der Transformation im horizontalen Gentransfer, ist über die Struktur und Funktion der komplexen DNA-Aufnahmesysteme wenig bekannt.
Krebszellen zeichnen sich häufig durch Expression von tumorassoziierten Antigenen aus, über die grundsätzlich eine spezifische Erkennung durch das Immunsystem möglich ist. Ansätze zur Immuntherapie von Krebserkrankungen zielen darauf ab, das Potential der körpereigenen Immunabwehr zur Tumorabwehr auszunutzen. Für die Aktivierung von tumorspezifischen T-Zellen ist die Präsentation von Peptidepitopen eines Tumorantigens zusammen mit effizienter Kostimulierung durch professionelle antigenpräsentierende Zellen (APCs), insbesondere dendritische Zellen (DCs), entscheidend. In der vorliegenden Doktorarbeit wurden zur Induktion einer spezifischen Immunantwort gegen das tumorassoziierte Antigen ErbB2/HER2 neuartige zelluläre Vakzine generiert und ihre Aktivität in der Therapie bestehender ErbB2-exprimierender Tumoren analysiert. ErbB2 ist ein Mitglied der epidermalen Wachstumsfaktorrezeptorfamilie und wird von vielen humanen Tumoren epithelialen Ursprungs überexprimiert. Als Rezeptortyrosinkinase ist ErbB2 direkt an der Tumorpathogenese beteiligt und stellt eine wichtige Zielstruktur für unterschiedliche immuntherapeutische Ansätze dar. In Vorarbeiten der Arbeitsgruppe wurde ein chimäres Tumorvakzin entwickelt, das über die extrazelluläre Domäne des humanen B7-Liganden CTLA-4 die spezifische Beladung von B7-exprimierenden APCs mit einem immunogenen Abschnitt des humanen ErbB2 (HER2/neu) in vivo ermöglicht. Die Immunisierung von naiven Mäusen mit DNA-Vektoren, die für sekretierte CTLA-4-ErbB2 Fusionspoteine kodieren, induzierte in den vorangegangenen Arbeiten eine protektive Immunität gegen anschließend injizierte ErbB2-exprimierende murine Nierenkarzinomzellen (Renca-lacZ/ErbB2). Allerdings war eine therapeutische Vakzinierung mit den DNA-Vektoren gegenüber bereits bestehenden Tumoren nicht mehr wirksam. Zur Erhöhung der therapeutischen Wirksamkeit des CTLA-4-ErbB2 Tumorvakzins wurde in dieser Doktorarbeit eine alternative Behandlungsstrategie entwickelt, bei der das APC-spezifische Fusionsprotein durch ein zelluläres Vakzin in vivo zur Verfügung gestellt wird. Durch stabile Transfektion der aus BALB/c Mäusen stammenden nicht tumorigenen Mammaepithelzelllinie HC11 mit einem CTLA-4-ErbB2 kodierenden DNA-Konstrukt wurde dazu das klonale zelluläre Vakzin HC11/CTLA-4-ErbB2 abgeleitet und funktionell charakterisiert. Von diesem Zellvakzin wurde anhaltend CTLA-4-ErbB2 Fusionsprotein in das umgebende Milieu sezerniert, das in der Lage war, effizient an B7-exprimierende Zellen zu binden. Die dreimalige Immunisierung mit dem zellulären HC11/CTLA-4-ErbB2 Vakzin im wöchentlichen Intervall löste im immunkompetenten BALB/c Mausmodell eine ErbB2-spezifische Immunantwort aus. Mit Hilfe des bereits zuvor in den prophylaktischen DNA-Vakzinierungsexperimenten eingesetzten BALB/c Renca-lacZ/ErbB2 Tumortransplantationsmodells wurde zunächst untersucht, ob das zelluläre HC11/CTLA-4-ErbB2 Vakzin einen Einfluss auf das Wachstum von etablierten ErbB2-exprimierenden Tumoren hat. Die Inokulation des Vakzins in die Nähe von subkutan wachsenden Renca-lacZ/ErbB2 Tumoren führte in BALB/c Mäusen zu einer kompletten Tumorregression in der Mehrzahl der behandelten Tiere. Dabei war der antitumorale Effekt von der starken Induktion ErbB2-spezifischer Antikörper und einer mäßigen ErbB2-spezifischen Aktivität systemischer zytotoxischer T-Zellen begleitet. Durch Vakzinierung und Tumorabstoßung wurde ein Langzeitschutz induziert, der die erneute Abstoßung einer zwei Monate nach dem Primärtumor systemisch applizieren letalen Dosis von Renca-lacZ/ErbB2 Tumorzellen bewirkte. Die Vakzinierung mit HC11/CTLA-4-ErbB2 hatte keinen Einfluss auf das Wachstum ErbB2-negativer Tumorzellen. Ebenso führte die Behandlung mit HC11 Zellen, die ein irrelevantes CTLA-4 Fusionsprotein sezernieren, nicht zur Abstoßung von RencalacZ/ ErbB2 Tumoren. Diese Resultate bestätigen die antigenspezifische Wirkung des zellulären HC11/CTLA-4-ErbB2 Vakzins. Für die Evaluierung von ErbB2-spezifischen Immuntherapien stehen eine Reihe transgener Mausmodelle zur Verfügung, welche die Untersuchung des Einflusses einer bestehenden immunologischen Toleranz gegenüber humanem ErbB2 auf die therapeutische Aktivität zulassen. Ein gut etabliertes und häufig verwendetes Tiermodell sind dabei transgene WAP-Her-2 Mäuse, für die der humane ErbB2-Rezeptor ein Selbstantigen darstellt. In dieser Arbeit wurden durch Kreuzung mit BALB/c WAP-Her-2 F1 Mäuse mit einem genetischen CB6F1 Hintergrund erzeugt. Diese Tiere wiesen eine ausgeprägte immunologische Toleranz gegenüber humanem ErbB2 auf und eigneten sich somit für die Analyse der Aktivität des zellulären HC11/CTLA-4-ErbB2 Vakzins in einem physiologisch relevanten Kontext. Eine therapeutische Vakzinierung mit dem ursprünglichen HC11/CTLA-4-ErbB2 Vakzin führte in diesen WAP-Her-2 F1 Tieren nicht zu einer Abstoßung von Renca-lacZ/ErbB2 Tumoren. Zur Erhöhung der Effektivität von HC11/CTLA-4-ErbB2 in der Therapie von ErbB2-positiven Tumoren in immunologisch toleranten Mäusen wurde daher ein ähnliches zelluläres Vakzin generiert, das zusätzlich das immunmodulatorische Zytokin IL-15 sezerniert. Im Gegensatz zu HC11/CTLA-4-ErbB2 war das optimierte zelluläre HC11/CTLA-4-ErbB2/IL-15 Vakzin auch in immuntoleranten WAP-Her-2 F1 Mäusen therapeutisch wirksam und verzögerte signifikant das Wachstum von ErbB2-exprimierenden Tumoren. Die Ergebnisse dieser Arbeit zeigen, dass die andauernde Expression und Sekretion des APC-spezifischen CTLA-4-ErbB2 Fusionsproteins durch peritumoral injizierte Epithelzellen eine wirksame antigenspezifische Immunantwort und antitumorale Aktivität gegen etablierte Tumoren induzieren kann. Es ist wahrscheinlich, dass sich ähnliche Zellvakzine auch in menschlichen Krebspatienten als wirksam und nützlich erweisen können. Eine weitere Entwicklung dieses Ansatzes hin zu einer klinisch anwendbaren Immuntherapie erscheint daher sinnvoll.
Die vorliegende Arbeit handelt von der Entwicklung, dem Bau, den Zwischenmessungen sowie den abschließenden Tests unter kryogenen Bedingungen einer neuartigen, supraleitenden CH-Struktur für Strahlbetrieb mit hoher Strahllast. Diese Struktur setzt das Konzept des erfolgreich getesteten 19-zelligen 360 MHz CH-Prototypen fort, der einen weltweiten Spitzenwert in Bezug auf Beschleunigungsspannung im Niederenergiesegment erreichte, jedoch wurden einige Aspekte weiterentwickelt bzw. den neuen Rahmenbedingungen angepasst. Bei dem neuen Resonator wurde der Schwerpunkt auf ein kompaktes Design, effektives Tuning, leichte Präparationsmöglichkeiten und auf den Einsatz eines Leistungskopplers für Strahlbetrieb gelegt. Die Resonatorgeometrie besteht aus sieben Beschleunigungszellen, wird bei 325 MHz betrieben und das Geschwindigkeitsprofil ist auf eine Teilcheneingangsenergie von 11.4 MeV/u ausgelegt. Veränderungen liegen in der um 90° gedrehten Stützengeometrie vor, um Platz für Tuner und Kopplerflansche zu gewährleisten, und in der Verwendung von schrägen Stützen am Resonatorein- und ausgang zur Verkürzung der Tanklänge und Erzielung eines flachen Feldverlaufs. Weiterhin wurden pro Tankdeckel zwei zusätzliche Spülflansche für die chemische Präparation sowie für die Hochdruckspüle mit hochreinem Wasser hinzugefügt. Das Tuning der Kavität erfolgt über einen neuartigen Ansatz, indem zwei bewegliche Balgtuner in das Resonatorvolumen eingebracht werden und extern über eine Tunerstange ausgelenkt werden können. Der Antrieb der Stange soll im späteren Betrieb wahlweise über einen Schrittmotor oder einen Piezoaktor stattfinden. Für ein langsames/ statisches Tuning kann der Schrittmotor den Tuner im Bereich +/- 1 mm auslenken, um größeren Frequenzabweichungen in der Größenordnung 100 kHz nach dem Abkühlen entgegenzuwirken. Das schnelle Tuning im niedrigen kHz-Bereich wird von einem Piezoaktor übernommen, welcher den Balg um einige µm bewegen kann, um Microphonics oder Lorentz-Force-Detuning zu kompensieren. Der Resonator wird von einem aus Titan bestehendem Heliummantel umgeben, wodurch ein geschlossener Heliumkreislauf gebildet wird.
Derzeit befinden sich mehrere Projekte in der Planung bzw. im Bau, welche auf eine derartige Resonatorgeometrie zurückgreifen könnten. An der GSI basiert der Hauptteil des zukünftigen cw LINAC auf supraleitenden CH-Strukturen, um einen Strahl für die Synthese neuer, superschwerer Elemente zu liefern. Weiterhin könnte ein Upgrade des vorhandenen GSI UNILAC durch den Einsatz von supraleitenden CH-Resonatoren gestaltet werden. Zudem besteht die Möglichkeit, die bisherige Alvarez-Sektion des UNILAC alternativ durch eine kompakte, supraleitende CH-Sektion zu realisieren. Ebenfalls sollen die beiden parallelbetriebenen Injektorsektionen des MYRRHA-Projektes durch den Einsatz von supraleitenden CH-Strukturen erfolgen.
Die vorliegende Arbeit beschäftigt sich mit den Auswirkungen von Feldenkrais-Bewegungsübungen auf ein Klientel, dass aus freien Stücken an Feldenkraiskursen eines niedergelassenen Feldenkraislehrers teilnimmt, wobei insbesondere gesundheitliche und psychosomatische Aspekte betrachtet werden. Feldenkrais formulierte die theoretischen Grundlagen der Methodik auf einem breiten wissenschaftlichen Fundament verschiedener Fachrichtungen, wie Medizin, Neurobiologie, Psychologie, Physik, Systemtheorie und Anthropologie und lieferte damit eine Erklärung, wie die von ihm entwickelte Bewegungsmethodik Ein uss auf die Entwicklung und die Lernfähigkeit eines jeden Individuums nehmen kann. Der Mensch wird dabei, im Gegensatz zur dualistischen Sichtweise, die in der klassischen Schulmedizin vorherrscht, als ein Ganzes gesehen, in dem die Bereiche Körper und Seele nicht zu trennen sind. Die moderne Neurobiologie bestätigt mit der Anwendung neuer Messmethoden, wie dem funktionellen Magnetresonanztomogramm bedeutende Aussagen der Theorie von Feldenkrais. Systemtheorie und Konstruktivismus sind dabei grundlegend für den feldenkrais'schen Denkansatz und für die heutige Psychosomatik, wie sie unter anderem von von Uexküll beschrieben wird. Der Mensch wird hier als autopoietisches System betrachtet, welches sich selbst ständig reguliert. Somit kann er sich wechselnden Umweltein flüssen anpassen und ist zur Selbstheilung fähig, worin Feldenkraislehrer, respektive Psychotherapeuten ihn unterstützen können. Zunehmend suchen Menschen zur Förderung der persönlichen Weiterentwicklung, wie gleichzeitig zur Bewältigung gesundheitlicher und insbesondere psychosomatischer Probleme Feldenkraiskurse auf. Vor diesem Hintergrund wurden in der Praxis eines niedergelassenen Feldenkraislehrers die Kursteilnehmer vor- und direkt nach der Teilnahme an zehn Feldenkraisstunden, sowie im Langzeitverlauf zu den Auswirkungen befragt. Die 82 erwachsenen Probanden der Studie waren zu 2/3 weiblich, bei einem Durchschnittsalter von 46 Jahren. Die Stichprobe glich in ihrem psychosomatischen Beschwerdestatus der durchschnittlichen Allgemeinbevölkerung, wohingegen ein überdurchschnittlich hohes Schulbildungs- und Berufsausbildungsniveau vorlag. Die Motivation der Kursteilnehmer lag gleichermaßen im Wunsch, die Fähigkeit der Körperwahrnehmung und die Beweglichkeit zu steigern, wie verschiedene Beschwerden und Erkrankungen zu verbessern. Anhand zweier standardisierter psychometrischer Fragebögen, dem Giessener Beschwerdebogen und der Symptom-Checkliste SCL-90-R konnte eine signifikante Verbesserung psychosomatischer und somit gesundheitlicher Beschwerden direkt nach dem Kurs, wie auch im Langzeitverlauf ein halbes Jahr nach Kursende beschrieben werden. Dazu zählen im Einzelnen Gliederschmerzen, Herzbeschwerden, Somatisierungstendenz, Zwanghaftigkeit, Depressivität, Aggressivität und die grundsätzliche psychische Belastung. Mithilfe des neu entwickelten Selbsteinschätzungsfragebogens des Verfassers ergaben sich weitere Hinweise auf die positiven Langzeitauswirkungen nicht nur im seelischen Bereich, sondern in weiteren zentralen Bereichen menschlichen Handelns, namentlich dem Wahrnehmungsbereich, dem kognitiven Bereich und der Beweglichkeit. Die Verbesserungen betrafen mehrere Lebensbereiche, den privaten, wie auch den beruflichen Bereich. Die Sicherheit der Feldenkraismethode gegenüber dem Auftreten unerwünschter Nebenwirkungen wurde ebenfalls dokumentiert. Anhand kontrollierter randomisierter Folgestudien sollten die Ergebnisse abgesichert werden. Der kreative Wissensaustausch von Neurobiologen mit moderner Messtechnik und wissenschaftlich arbeitenden Feldenkraislehrern, die zur Entwicklung spezieller Messmethodik einen Beitrag leisten können, kann zu neuen Erkenntnissen auf den Gebieten des Lernverhaltens, der Reifung und der Gesundheit des Menschen führen.
Hintergrund: Die Atheroskleroseexpression unterscheidet sich nicht nur in unterschiedlichen Gefässbetten (koronar, zerebrovaskulär, peripher), sondern auch innerhalb des peripheren Gefässbettes. Der zugrundeliegende Mechanismus für unterschiedliche Atherosklerose-Phänotypen mit proximalem (iliakale Arterien) oder distalem (infragenikuläre Arterien) Atheroskleroseverteilungsmuster ist bis jetzt noch nicht abschliessend geklärt.
Zielsetzung: Das Ziel dieser monozentrischen retrospektiven Kohortenstudie ist es, den Zusammenhang zwischen kardiovaskulären Risikofaktoren und dem Atheroskleroseverteilungs-muster bei Patienten mit PAVK zu untersuchen. Dafür werden symptomatische Patienten mit extremen Atherosklerosephänotypen (proximale vs. distale Atherosklerose) genauer untersucht.
Methodik: Für diese Querschnittsstudie wurden Daten von 15’000 Patienten, welche sich im Zeitraum von 2000-2018 aufgrund einer symptomatischen PAVK einer primären endovaskulären Rekanalisation an den unteren Extremitäten unterziehen liessen, ausgewertet. Dabei wurden die Patienten herausgefiltert, welche angiographisch ein proximales (iliakal) oder distales (krural) Atheroskleroseexpressionsmuster aufwiesen. Von diesen Personen wurden in der Datenbank personen- und gesundheitsbezogene klinischen Angaben extrahiert. In einer multiplen logistischen Regressionsanalyse mit Rückwärtselimination der unabhängigen Variablen wurde der Einfluss verschiedener kardiovaskulärer Risikofaktoren mit proximaler oder distaler Atherosklerosexpression ermittelt.
Resultate: Von insgesamt 637 indentifizierten Patienten (29% Frauen) mit einer primären endovaskulären Rekanalisation hatten 351 (55%) ein proximales und 286 (45%) ein distales Atheroskleroseverteilungsmuster. Weibliches Geschlecht (OR 0.33, (95%CI 0.20-0.54), p=0.011), aktiver Nikotinkonsum (OR 0.16, (95%CI 0.09-0.28), p<0.001), vormaliger Nikotinkonsum (OR 0.33, (95%CI 0.20-0.57), p<0.001), Hypertriglyzeridämie (OR 0.76, (95%CI 0.60-0.96), p=0.021) waren assoziiert mit einem proximalen Befall. Diabetes mellitus (OR 3.25, (95%CI 1.93-5.46), p<0.001), chronische Niereninsuffizienz (OR 1.18, (95%CI 1.08-1.28), p<0.001) und höheres Alter (OR 1.31, (95%CI 1.06-1.61), p=0.011) waren hin-gegen mit einem distalen Befall assoziiert. Andere Faktoren wie Body Mass Index, arterielle Hypertonie, HDL-, LDL-Cholesterin zeigten keine Assoziation mit den untersuchten atherosklerotischen Prädilektionsstellen. Die Resultate der primären Analysen konnten mit den Subgruppenanalysen (Geschlecht, Nikotinkonsum, Diabetes) bestätigt werden.
Schlussfolgerung: Für distale (krurale) Atherosklerose wurden als Hauptrisikofaktoren Diabetes mellitus und chronische Niereninsuffizienz ermittelt. Obwohl kardiovaskuläre Risikofaktoren auf das gesamte Gefässbett wirken, lassen sich aus den Daten in Bezug auf das Atheroskleroseverteilungsmuster eine geschlechtspezifische und eine individuelle Suszeptibilität für kardiovaskuläre Risikofaktoren vermuten. Ausserdem deuten die Daten darauf hin, dass die PAVK mindestens zwei verschiedene atherosklerotische Phänotypen aufweist.
Die gesellschaftlichen Umbrüche und einschneidenden Veränderungen in Europa seit 1800 ließen eine baukünstlerische Suche nach einem Code für die Darlegung neuer, von bürgerlichen Imaginationen und Ideen geprägten Lebens- und Architekturmodellen entstehen. Anhand der orientalisierenden Architekturen Italiens aus dem Zeitraum zwischen 1800 und 1940 wird dieser Prozess aufgezeigt. Man begann die außereuropäischen Baukünste als eine Möglichkeit zu rezipieren, mit der man sich optisch von den absolutistischen Formen des Barock absetzte, die für die aufkommende Bürgermacht keinen passenden Symbolwert beinhalten konnten. Die Idee eines schillernden Orients, der unzählige Möglichkeiten zwischen der vom Verstand geprägten Wissenschaftlichkeit und der mythisch verklärten orientalischen Sinnlichkeit eröffnete, bot scheinbar auch einen Ausweg aus den Verstrickungen des Diktats der fixierten Strukturen. Dementsprechend sind die orientalisierenden Bauten im emotionalen Spannungsfeld zwischen gesellschaftlichem Eskapismus und der Entwicklung innovativer Vorstellungen zu finden. Dieser in der Architektur dokumentierte Verlauf der Begegnungen mit außereuropäischen Kulturen auf der Suche nach einem neuen architektonischen Ausdruck wird nach einem historischen Abriss auch für die Literatur, die Malerei und das Theater skizziert, um die weitreichende Entfaltung des Mythos Orient kontextuell nachvollziehbar werden zu lassen. Der Hauptteil der Analyse widmet sich den verschiedenen Intentionen der orientalisierenden Architektur anhand von beispielhaft ausgewählten Bauten, die einem Konvolut von ca. 200 dokumentierten Bauten entstammen. Obgleich nur die jüdischen Gemeinden orientalisierende Bauten zu Repräsentationszwecken schufen, finden sich die gerade auch im Außenbereich optisch hervorhebenden Forschungsobjekte zumeist im Umfeld von architektonischen Darlegungen nicht gesellschaftskonformen Lebenskonzepten und utopischen Ideen für Stadtplanungen. Spätestens ab 1880 wurde eine Sehnsucht nach Stabilität offenbar, die exotische Privatresidenzen, Badeorte und Heilzentren als Fluchtmöglichkeiten in Träume und Phantasien vor den Restriktionen der Zeit erscheinen ließen. Mit den Inspirationen der Massenvergnügungen, die in der städtischen Öffentlichkeit ein wichtiges Podium fanden, entstanden Bauten, die die zuvor als elitär zu verstehenden, exotischen Anlagen nun als kommerzielle Freizeitvergnügungen wie urbane Festinszenierungen, Lichtspielhäuser und Theaterbauten für den temporären Ausstieg aus dem Maschinenzeitalter umdeuteten. Die italienische Kolonialpolitik hinterließ bis in die 1930er Jahre Spuren in den entsprechend Bezug nehmenden orientalisierenden Pavillons internationaler sowie nationaler Ausstellungen und in Gartenanlagen, in denen der Aspekt der kulturellen Wertigkeit von besonderer Betonung war. Der Aufbruch in die Suche nach Manifestationen neuer Lebensumstände ist ein wesentlicher Beitrag, den die orientalisierende Baukunst leistete. Dieser wurde nicht nur durch die Auseinandersetzungen über Dekor und Konstruktionen geführt, sondern mindestens ebenso durch philosophisch-lebensanschauliche Überlegungen, die durch die Begegnung mit anderen Kulturen entstanden und die innerhalb eines transkulturellen Prozesses die Formierung einer zeitgemäßen Architektur in Europa beförderten. Nachdem zunächst die Ornamentik und einzelne Versatzstücke in die europäische Baukunst eingeflossen sind, begann zum Ende des 19. Jahrhunderts eine Faszination für die inneren Strukturen der orientalischen Architektur das Abendland zutiefst zu verändern, die zu einem Synkretismus führte, der teilhatte an der Ausbildung der modernen Architektur. Obgleich viele Vertreter der neuen Baukunst Rückgriffe konsequent ablehnten, konnten sie sich dennoch nicht endgültig lösen von den historischen Anlehnungen. Von der orientalisch-dekorativen Hülle bis hin zum hohen Grad der Durchdringung der westlichen Konstruktion kann die Intention des Objektes als restriktiv oder sich der Moderne annähernd gelesen werden, so dass man von unbedingt von differenzierten Orientalismen sprechen muss. An den mannigfaltigen orientalisierenden Architekturen Italiens konnte veranschaulicht werden, inwieweit die Begegnung mit fremden Lebensstrukturen tief greifende Umgestaltungen in der europäischen Kultur hinterlassen hat. Durch das Kennenlernen anderer Welten wurden westliche Grundwerte relativiert und neue Denkhorizonte eröffnet. Auch wenn häufig genug verschobene Bilder der außereuropäischen Realitäten präsentiert wurden, regte es zumindest dazu an, Projekte zu entwickeln, die die soziale Ordnung des Landes widerspiegelten und Anschluss an die Moderne des 20. Jahrhunderts fanden.
Die Proteomforschung wurde die letzten beiden Dekaden maßgeblich durch die Massenspektrometrie geprägt und vorangetrieben. Ohne die Ionisationstechniken MALDI und ESI wäre die Analyse von Peptiden und Proteinen nicht in dem Maße möglich. Durch das Zusammenspiel zwischen Probenvorbereitung und effektiven Trennmethoden mit hochauflösenden Massenspektrometern und Auswertungssoftware können heute problemlos komplexe Proteinmischungen oder ganze Proteome untersucht werden.
Um Proteine in Peptide zu schneiden, wird in den allermeisten Fällen die Protease Trypsin verwendet, deren Eigenschaften in vielerlei Hinsicht die bestmögliche Lösung für die nachfolgende Analyse mit Massenspektrometern bieten. Allerdings stößt die Anwendbarkeit dieses Enzyms bei der Analyse von einigen Proteinen oder Proteinklassen wie Membranproteinen an ihre Grenzen, da nur sehr wenige potentielle Schnittstellen vorhanden sind. In solchen Fällen wurden eine Reihe von weniger spezifischen Enzymen wie Chymotrypsin, Proteinase K oder Elastase in den vergangenen Jahren genutzt, die Proteine auch in für Trypsin weniger gut zugänglichen Bereichen wie Transmembranhelices, in massenspektrometrisch analysierbare Peptide spalten können.
Allerdings stellen die wenig spezifischen Enzyme und die von ihnen generierten Peptide die Massenspektrometrie vor neue Herausforderungen. Für eine Identifizierung benötigen die Peptide eine sehr hohe Massengenauigkeit, daneben sind insbesondere bei der Verwendung von MALDI-Massenspektrometern neutrale und sehr saure Peptide schwerer ionisierbar und analysierbar als basische.
Genügte es bis vor einigen Jahren, nur die Identität einzelner Proteine in komplexen Proben zu bestimmen, hat sich die Fragestellung mittlerweile einem Wandel unterzogen. Heute ist man daran interessiert, wie viel eines bestimmten Proteins vorliegt, besonders im Vergleich mit anderen, unterschiedlich behandelten Proben ist die Regulation von Proteinen von Interesse. Zum Quantifizieren stehen viele unterschiedliche Methoden zur Verfügung. Eine solche stellen die isobaren Derivatisierungsreagenzien TMT und iTRAQ dar, mit denen unterschiedliche Proben nach Peptidfragmentierung quantifiziert werden können.
Fast alle Arbeiten zur Quantifizierung in der Vergangenheit benutzten Trypsin als Protease.
Im Zuge dieser Arbeit sollten die Vorteile, die durch die Verwendung von Elastase bei der Identifizierung von Membranproteinen bereits gezeigt werden konnten, auf die Quantifizierung mit TMT erweitert werden.Wurde in der Vergangenheit noch in manchen Publikationen davon abgeraten, Elastase zu verwenden,weil die Nutzbarkeit der dabei gebildeten komplexen Peptidmischungen in Frage gestellt wurde, konnte in dieser Arbeit gezeigt werden, dass Elastase wie auch Trypsin sich eignen, als Enzym für Quantifizierungsexperimente verwendet zu werden. Dies wurde an Modellproteinen evaluiert und dann auf komplexe Membranproben von Hefezellen erweitert.
Bei Vorexperimenten zur Derivatisierung mit TMT wurde desweiteren festgestellt, dass Peptidklassen, die zuvor nur mit ESI als Ionisationsmethode identifiziert werden konnten, durch die Derivatisierung nun auch mit MALDI zugänglich waren. Die dadurch analysierten kleinen, hydrophoben und sehr sauren Peptide lieferten bei der Kombination mit der underivatisierten Probe einen deutlichen Zugewinn in der Sequenzabdeckung der identifizierten Proteine.
Ein weiterer Teil der Arbeit beschäftigt sich mit der nachträglichen Korrektur von gemessenen Peptidmassen über selbst geschriebene Softwarelösungen für verschiedene Massenspektrometer. Es wurde das Ziel verfolgt, eine möglichst hohe Massengenauigkeit und damit hohe Anzahl an Identifizierungen von Proteinen nach Verdau mit wenig spezifischen Proteasen zu erreichen. Weitere Computerprogramme wurden mit dem Ziel geschrieben, den Arbeitsablauf zu erleichtern und zu verbessern.
Für die früher schon beschriebene Kombination zweier Massenspektrometer mit hoher Massengenauigkeit und Auflösung auf der einen Seite und effizienter Peptidfragmentierung auf der anderen Seite konnte durch Veränderung der Instrumentierung und Software nun eine Automatisierbarkeit geschaffen werden, die es ermöglicht, die Methode standardmäßig bei Routineanalysen zu verwenden.
So ergeben sich viele neue Möglichkeiten neben den oft gewählten Standardprotokollen mit der Analyse tryptischer Verdauansätze mittels LC-ESI-MS/MS, die häufig nur der Einfachheit halber und ohne Anpassung an die eigene Zielsetzung gewählt werden.
Die Arbeit zeigt aber auch auf, dass die Verwendung weniger spezifischer Enzyme sowohl eine Optimierung des Arbeitsablaufs als auch eine Datenauswertung benötigt, die die Besonderheiten der Proteasen berücksichtigt. Wenn dies gewährleistet wird, kann vor allem mit dem Zugewinn durch die Derivatisierung mit TMT eine wertvolle Alternative zu Trypsin genutzt werden.
Biopharmazeutika sind heutzutage ein wichtiger Bestandteil des Arzneimittelmarktes. Ihr komplexer Aufbau und ihre Mikroheterogenität erfordern eine genaue strukturelle Charakterisierung auf verschiedenen Ebenen der Moleküle, wobei die Anwendung neuer Methoden von den entsprechenden Richtlinien durchaus erwünscht ist. Die Massenspektrometrie als Analysemethode hat sich in diesem Gebiet bereits fest etabliert. Verschiedenste massenspektrometrische Untersuchungen können an den intakten Biopharmazeutika sowie an größeren und kleineren Bruchstücken derselben durchgeführt werden. Trotzdem wird meist auf wenige, lange etablierte Protokolle zurückgegriffen, die häufig mit langwieriger Probenvorbereitung verbunden sind. Bei der Analyse der Glykosylierung wird immer noch die chromatographische Trennung mit anschließender Detektion durch UV- oder Fluoreszenzmessung bevorzugt.
In dieser Arbeit sollten die Möglichkeiten der Massenspektrometrie bei der Analyse von Biopharmazeutika genauer untersucht werden. Dazu gehört auch, den hohen Informationsgehalt der üblichen chromatographischen Auftrennung von Peptiden aus einem proteolytischen Verdau vollständig zu nutzen. Es wurde gezeigt, dass die manuelle Auswertung der Analyse zusätzliche Ergebnisse bringt, und dass gleichzeitig eine Analyse von posttranslationalen und prozessbedingten Modifikationen möglich ist. Zudem wurde der Verdau mit der Protease Trypsin auf das jeweilige Biopharmazeutikum und auf das Ziel der Analyse optimiert. Da mit Trypsin eine vollständige Sequenzabdeckung nicht erreichbar war, wurden zusätzlich verschiedene weniger spezifische Proteasen angewendet. Alle untersuchten weniger spezifischen Proteasen (Elastase, Chymotrypsin und Thermolysin) waren für eine solche Analyse gut geeignet. Die Komplementarität von MALDI- und ESI-MS-Analysen konnte durch ihre Kombination optimal ausgeschöpft werden. Zudem wurden weitere Methoden zur Erhöhung der Sequenzabdeckung wie die Derivatisierung der Peptide mit TMTzero vorgestellt.
Für die Analyse intakter Biopharmazeutika wurden neben der Größenausschlusschromatograph und gelelektrophoretischen Trennungen sowohl MALDI- als auch ESI-MS-Analysen verwendet. Die Trennung großer Proteinmoleküle in kleinere Untereinheiten erleichterte dabei die massenspektrometrische Analyse maßgeblich. Die Fragmentierung der Biopharmazeutika mittels MALDI-ISD war für die Bestimmung der Protein-N- und C-Termini sehr gut geeignet.
Die Analyse der Glykosylierung wurde an den freien N-Glykanen aus einem PNGaseF-Verdau sowie an Glykopeptiden aus einem Verdau mit Pronase durchgeführt. Die freien N-Glykane konnten zudem für die MALDI-MS-Analyse mit der MALDI-Matrix 3-Aminochinolin direkt auf dem Probenteller derivatisiert werden. Die Derivatisierung und Vermessung der N-Glykane wurde zunächst an verschiedenen Standardoligosacchariden, Humanmilcholigosacchariden und N-Glykanen aus Standardglykoproteinen optimiert. Durch die Fragmentierung der N-Glykane konnten diese sequenziert und isomere Strukturen unterschieden werden.
Bei einem Pronaseverdau wurden Proteine so weit verdaut, dass nur noch einzelne Aminosäuren bzw. Di- oder Tripeptide übrig blieben. Lediglich die Glykosylierungsstellen waren durch die voluminösen Glykanstrukturen vor dem Verdau geschützt und behielten eine kurze Peptidsequenz, die für eine Identifizierung der Glykosylierungsstelle ausreichend war. So konnten die N- und O-Glykopeptide direkt ohne Aufreinigung mittels MALDI-MS aus den Verdauansätzen analysiert werden, ohne dass nicht glykosylierte Peptide störten. Das Verdauprotokoll wurde zunächst an mehreren Standard-N- und -O-Glykoproteinen optimiert und anschließend auf die untersuchten Biopharmazeutika angewendet. N- und O-Glykopeptide konnten sogar nebeneinander analysiert werden. Die hohe Massengenauigkeit des verwendeten MALDI LTQ-Orbitrap Massenspektrometers ließ eine eindeutige Identifizierung der Glykopeptide mit Hilfe eines dafür entwickelten Programms zu. Weiterhin konnte die Identifizierung durch die Fragmentierung der Glykopeptide unterstützt werden.
Somit konnten in dieser Arbeit verschiedene massenspektrometrische Analysen von Biopharmazeutika neu entwickelt, optimiert oder vereinfacht werden. Dabei wurden für jede Strukturebene (intaktes Molekül, größere und kleinere Fragmente) sowohl Ansätze mit MALDI-MS als auch mit ESI-MS verfolgt. Einige Methoden, die in der Proteomforschung bereits Anwendung fanden, konnten erfolgreich auf Biopharmazeutika übertragen werden. Die Arbeit zeigt, dass die Massenspektrometrie ein großes Potential in der Analyse der Biopharmazeutika besitzt, das aber bisher noch nicht vollständig ausgeschöpft wird. Durch die Wahl der richtigen Methoden und der geeigneten Instrumentierung wird eine vollständige strukturelle Charakterisierung ermöglicht.
Ziel dieser Arbeit ist die Identifikation des Einflusses klassischer Labormaterialien und alternativer Experimentiermaterialien auf fachdidaktische Anforderungen an ein gelungenes Experiment im Chemieunterricht. Dabei umfassen alternative Experimentiermaterialien sowohl Materialien aus der alltäglichen Lebenswelt von Schülerinnen und Schülern als auch Materialien aus dem Bereich der Medizintechnik, die anstelle von Materialien des gängigen Laborbetriebs im Chemieunterricht eingesetzt werden. Um den Einfluss des Experimentiermaterials auf entsprechende Anforderungen untersuchen zu können, wurden im Rahmen eines Mixed-Method-Designs zwei aufeinander aufbauende Studien durchgeführt. Bei Studie I handelt es sich um eine qualitative Interviewstudie unter N = 13 Chemielehrkräften, mit denen vor dem theoretischen Hintergrund fachdidaktischer Anforderungen an ein gelungenes Schulexperiment problemorientierte, leit-fadengestützte Interviews zu Vor- und Nachteilen beim Einsatz alternativer Experimentiermaterialien und klassischer Labormaterialien im Chemieunterricht geführt wurden. Anhand des gewonnenen Interviewmaterials wurden anschließend zunächst Eigenschaften identifiziert, in denen sich beide Materialpools voneinander unterscheiden, um davon ausgehend ein Kategoriensystem aufstellen zu können, das in Form einer Matrix den Einfluss dieser Materialeigenschaften auf organisatorische, experimentelle und affektive Anforderungen an ein Schulexperiment im Chemieunterricht darstellt. Dabei konnte in Bezug auf organisatorische Anforderungen insbesondere ein Einfluss des Experimentiermaterials auf zeitliche und finanzielle Rahmenbedingungen sowie auf Anforderungen zur Sicherheit beim Experimentieren im Chemieunterricht festgestellt werden. Ergebnisse zum Einfluss des Experimentiermaterials auf affektive und experimentelle Anforderungen an ein Schulexperiment wurden wiederum genutzt, um anschließend Hypothesen zum Einfluss des Experimentiermaterials auf entsprechende Anforderungen an gelungene Experimente im Chemieunterricht zu generieren, dabei an gelungene Schülerexperimente im Speziellen. Diese Hypothesen wurden in einer zweiten Studie quantitativ getestet. Innerhalb eines experimentellen Untersuchungsdesigns führten dazu insgesamt N = 293 Schülerinnen und Schüler eines von insgesamt fünf betrachteten Schülerexperimenten mit jeweils klassischem Labormaterial oder in einer jeweiligen Variante aus alternativem Experimentiermaterial durch. Im Anschluss beurteilten N = 237 Schülerinnen und Schüler im Rahmen einer Fragebogenerhebung ihre subjektive Wahrnehmung der Experimentiersituation bezüglich der Variablen Grad der Herausforderung, Beobachtbarkeit, Autonomieerleben, Anspannung/ Druck, Kompetenzerleben und Interesse/ Vergnügen. Mit Ausnahme des Kompetenzerlebens und der Beobachtbarkeit konnte zu allen betrachteten Variablen ein signifikanter Einfluss des Experimentiermaterials festgestellt werden. Um diese Ergebnisse der Hypothesentests näher beschreiben und differenzierter erläutern zu können, beantworteten die 237 Schülerinnen und Schüler zusätzlich offene Fragen zu den von ihnen verwendeten Experimentiermaterialien; mit N = 56 weiteren Schülerinnen und Schülern wurden aus diesem Grund außerdem leitfadengestützte Gruppeninterviews geführt. Um folglich auch aus Schülerperspektive möglichst allgemeingültige Einflüsse beider Materialpools auf fachdidaktische Anforderungen an ein gelungenes Schulexperiment zusammenfassen zu können, werden die Ergebnisse dieser qualitativen Datenerhebung ebenfalls in Form einer entsprechenden Matrix dargestellt und dabei von den konkret durchgeführten Experimenten abstrahiert. Neben dem bereits genannten Einfluss des Experimentiermaterials auf den von Schülerinnen und Schülern wahrgenommenen Grad der Herausforderung, das wahrgenommene Autonomieerleben, die/ den wahrgenommene/n Anspannung/ Druck beim Experimentieren sowie das wahrgenommene Interesse/ Vergnügen an der Experimentiersituation konnte dadurch insbesondere ein Materialeinfluss auf die Durchschaubarkeit eines Versuchsaufbaus und deren einzelner Bestandteile sowie auf die wahrgenommene Authentizität einer Experimentiersituation identifiziert werden. Dadurch zeigt die Gesamtuntersuchung auf theoretischer Ebene die Bedeutsamkeit des konkreten Experimentiermaterials als Qualitätsmerkmal des Chemieunterrichts und gibt Lehrkräften auf unterrichtspraktischer Ebene einen Überblick zu Potentialen und Grenzen alternativer Experimentiermaterialien im Vergleich zu etabliertem klassischem Labormaterial.
Fourier-Transform Infrarot Differenz Spektroskopie ist eine Methode. die es erlaubt, selbst kleinste konformelle Änderungen in der Umgebung der katalytischen Zentren in Enzymen selektiv und mit hoher Zeitauflösung zu messen. Diese Technik wurde an Oxidasen von Paracoccus denitrificans, Thermus thermophilus und Escherichia coli angewandt, um einen Einblick in strukturelle und molekulare Prozesse der Bindung und Dynamik von Liganden am binuklearen Zentrum zu erhalten. Die pH- und Temperatur-Abhängigkeit von CO Schwingungsmoden sowie deren Verhalten nach der Photolyse konnten zeitaufgelöst untersucht und miteinander verglichen werden. Bei Temperaturen >180K war die Bestimmung von thermodynamischen Parametern wie Enthalpie-Barrieren und Arrhenius-Vorfaktoren möglich. Aus dem Verlauf der Rückbindungskinetiken ließen sich ferner Rückschlüsse über die konformelle Heterogenität der Bindung ziehen. Für Temperaturen um 140K konnte das Protein im "quasistationären" Zustand vermessen werden, da Rückreaktionen des Liganden an die Bindungsstelle des Häm a3 unterbunden waren. Trotz der strukturellen Ähnlichkeit und analoger Funktion zeigten diese typischen Oxidasen große Unterschiede sowohl im Reaktionszentrum als auch im kinetischen Verhalten des Liganden. Die kinetischen Parameter für alle untersuchten Oxidasen weichen deutlich voneinander ab und spiegeln unter anderem die Stärke der Bindung am CUB wider. Die Temperaturabhängigkeit der Populationen der CO-Konformere und die äquivalente Rückbindungs-Kinetik der unterschiedlichen Konformere in den Oxidasen aus dem thermophilen System weisen auf ein strukturelles Merkmal in der Nähe des binuklearen Zentrums hin, das den Populations-Austausch in anderen Oxidasen unterbindet. Aufgrund der pH-Abhängigkeit der entsprechenden Oxidasen kann man schließen, daß diese Eigenschaft durch eine oder mehrere protonierbare Gruppen bewirkt wird, die die unterschiedlichen Konformere in bestimmten Positionen fixiert hält. Die Rückbindungsraten des Liganden zeigen für die T. thermophilus Oxidasen eine Rückbindung erster Ordnung. was auf eine homogene Verteilung der zwei Konformer-Populationen im Enzym deutet. Hingegen zeigte die Oxidase aus P. denitrificans für die Rückbindung eine Verteilung der Reaktionsraten. Ursache dafür ist ein sehr heterogenes Ensemble an Proteinen, das minimale strukturelle Unterschiede im Konformationsraum des Reaktionszentrums aufweist. Ein weiterer Aspekt der Arbeit war die Beobachtung von Absorptionsbanden der Hämpropionate an Cytochrome c Oxidase von Paracoccus denitrificans nach CO Rückbindung. Sowohl über 13C-isotopenmarkierte Hämpropionate als auch über ortsgerichtete Mutagenese in deren unmittelbarer Umgebung konnten definierte Banden-Zuordnungen im IR-Differenzspektrum erhalten werden. Experimente am Enzym mit Mutationen an der Stelle Asp 399 zeigten, daß die strukturellen Eigenschaften des Häm a3-CuB Zentrums im wesentlichen von dieser Veränderung nicht beeinflußt werden. Jedoch war die pH-Abhängigkeit der CO Konformere hier unterbunden, was auf deren Einfluß auf eine Protonierbarkeit im Wildtyp-Enzym hinweist. Rückschlüsse anhand der Mutante Asp399Asn zeigten (über den Verlust der pH-Abhängigkeit) ganz klar, daß alle unterschiedlichen CO-Konformere funktionell intakt sind. FT-IR Messungen an einem weiteren Enzym, der isolierten Cytochrom bd Oxidase aus E. coli, zeigten bei einer Untersuchung der CO Rückbindungs-Eigenschaften bei 84K die ausschließliche Rückbindung an das Häm d. der möglichen Sauerstoff-Bindungsstelle. Die Bindungsstelle an Häm b, die zu ca. 5% ebenfalls CO bindet, kann bei diesen Temperaturen nicht wiederbesetzt werden. Im typischen Spektralbereich von 1680 bis 1760 cm hoch minus 1 konnten eindeutig die Absorptionsbanden von Asparagin- oder Glutaminsäure-Seitenketten identifiziert werden. Über einen direkten Vergleich der Spektren, die über Redox-Reaktion und CO Rückbindung erhalten wurden, konnten diese Signale als klar in der direkten Umgebung des binuklearen Zentrums lokalisiert zugeordnet werden. Eine Rolle als vorübergehender Protonen-Akzeptor/Donor auf dem Weg zur Sauerstoff-Bindungsstelle ist naheliegend.
Vorhofflimmern entsteht unter anderem durch ein Ungleichgewicht zwischen sympathischem und parasympathischem autonomen Nervensystem. Sowohl invasive Ansätze via Ablation oder Denervierung als auch minimalinvasive Ansätze via Elektrostimulation liefern erfolgsversprechende Ergebnisse in Bezug auf Beeinflussung eines bestehenden Vorhofflimmerns.
Interessanterweise konnte durch Akupunktur des Tragus eine Reduktion von Vorhofflimmer-Rezidiven nach Kardioversion erreicht werden. Ziel dieser Studie war die Evaluation von Akupunktur-induzierten kardialen (vegetativen) Effekten bei gesunden Probanden.
Herzgesunde männliche Probanden (n=24) wurden im Bereich des Vagus-Innervationsgebietes an der Concha inferior des Ohres (Herzpunkt 100, OHR) sowie an einem klassischen Akupunktur-Punkt des Herzens (ventralen Unterarm, P6/Neiguan, ARM) akupunktiert. Eine „Placebo“-Akupunktur eines Punktes, der gegen Gonarthrose-Schmerzen helfen soll (Magenpunkt 35), diente als Kontrolle. Die Hälfte der Probanden erhielt eine zusätzliche Messung ohne Akupunktur, um Effekte durch das alleinige Platzieren einer Nadel zu untersuchen.
Um eine Aktivierung des ANS zu bewirken und Veränderungen quantifizieren zu können, wurden 12-Kanal Langzeit-EKG Messungen wie folgt durchgeführt: 30 Minuten (min) in liegender Position unter Akupunktur, Entfernung der Akupunkturnadel, 5 min liegend, 5 min sitzend, 5 min stehend, 5 min sitzend.
Es erfolgten Analysen folgender Parameter der Herzfrequenzvariabilität: Herzfrequenz, SDNN, RMSSD, HF, LF, LF/HF. Des Weiteren wurden Periodic Dynamics Repolarization und Deceleration Capacity untersucht.
Verglichen mit Placebo-Akupunktur wurde sowohl durch Akupunktur am OHR als auch am ARM die Herzfrequenz in liegender und sitzender Körperpositionen signifikant gesenkt (Phasen 30L, 5S1, 5S2, ∆5L-5S1, ∆5S1-5ST).
Während die Akupunktur am OHR vor allem die SDNN signifikant erhöhte, führte die Akupunktur am ARM zu einer signifikanten Steigerung von RMSSD und dem parasympathischen Leistungsdichtespektrum-Parameter HF. Der Quotient LF/HF wurde ebenfalls signifikant gesenkt.
Kein Unterschied bestand zwischen Placebo-Akupunktur und Messung ohne Akupunktur, sodass postuliert werden kann, dass das alleinige Platzieren einer Nadel keinen nennenswerten Effekt auf das autonome Nervensystem besitzt.
Die Ergebnisse der Studie zeigen, dass eine Akupunktur an Orten, die mit dem autonomen Nervensystem verschaltet sind, zu einer Modulation des parasympathischen kardialen autonomen Nervensystems führen kann.
Eine Modulation der parasympathisch-sympathischen Balance durch minimalinvasive Zusatzbehandlung, wie in unserer Studie, könnte möglicherweise bei Patienten mit Vorhofflimmern zusätzlich zu medikamentöser oder nach invasiver Behandlung wie der Pulmonalvenenisolation das Therapieresultat verbessern und die Rezidivrate verringern.
Der Konflikt von Tradition und Moderne in der Avantgarde. Dargestellt in den Romanen La vie secrète und Visages cachés von Salvador Dalí, Hebdemeros und Monsieur Dudron von Giorgio de Chirico sowie Caravansérail von Francis Picabia
Die Arbeit setzt sich anhand der Frage des Konfliktes von Tradition und Moderne mit den Prosawerken Dalís, Chiricos und Picabias auseinander. Zusätzlich wird der Medienwechsel der ursprünglich bildenden Avantgardekünstler hin zur Sprache als Ausdrucksform thematisiert: die Frage nach veränderten literarischen Möglichkeiten durch die bildlich geprägte Perspektive der Künstler, verbunden mit der Frage nach Traditionen und Mythologien. Darüber hinaus wird erörtert, inwieweit die als „Ego-Dokumente“ konzipierten Texte Rückschlüsse auf die Biographien der Verfasser zulassen.
Caravansérail, Picabias fragmentarischer Roman präsentiert sich dem Titel entsprechend als Umschlagplatz eines Spektrums literarischer Konzepte, vergegenwärtigt durch die literarische Prominenz der Avantgarde. Ein Roman, der den technischen Fortschritt von Bewegung und Medien thematisiert, in der der Titel lediglich als vorübergehender Ruhepol dient.
Narratologisch gesehen entspricht der Text der Definition der „deambulatorischen“ Erzählweise (Wolfzettel). Die überwiegende Dialogform deutet auf Picabias Orientierung an Romanen des 18. Jahrhunderts hin.
Chiricos surrealistischer Roman Hebdomeros zeigt sich noch „deambulatorisch“, doch schon strukturiert durch die Wiederaufnahme der „navigatio mystica“ verknüpft mit dem Weg der Selbstfindung. Im Kontrast zu Picabia thematisiert Chirico Tagträume und Gedanken des Protagonisten, wodurch sich bereits die Wende zu traditionellen Formen andeutet. Statt surrealistischer Welthaltigkeit wird die Mythologie der Antike, Elemente des Christentums sowie die Seefahrt in Verbindung mit einer idealisierten Frauengestalt angeknüpft.
Monsieur Dudron zeigt Chiricos endgültige Abkehr von avantgardistischer Textproduktion, die parallel zu den Entwicklungen im faschistischen Italien verläuft. Mittels des „Schneckenfarm-Besuchs“ wird Dudrons/Chiricos Ablehnung zeitgenössischer Kunst exprimiert. Durch integrierte essayartige Teile, die sich an Traditionellem, Antike und Renaissance, orientieren, entspricht er noch dem „deambulatorischen“ Konzept.
Dalís Pseudo-Biographie La vie secrète orientiert sich an hagiographischen Texten, um sich zum Heiligen und Retter der Kunst vor der Avantgarde zu stilisieren. So konzipiert er auch seine Beziehung zu Gala entsprechend der Tristan-Mythologie.
Die Rückkehr zu traditioneller Textproduktion vollendet Dalí mit dem epischen Werk Visages cachés. Die Charaktere des Romans verweisen auf Literatur des ausgehenden 18. Jhs, der Protagonist zeigt jedoch Analogien zu Huysmans oder Wildes Romanfiguren. Surreale Elemente sind nur noch als Splitter in die Roman-Realität integriert. Mittels Sprache sowie der geschlossenen Form des Romans opponiert Dalí gegen avantgardistische Textproduktionen.
Die Dissertationsschrift nimmt unter einer kulturwissenschaftlichen Fragestellung die Entstehungsprozesse des Kunstfeldes im kolonialen Südafrika zu Beginn des 20. Jahrhunderts in den Blick und arbeitet heraus, worin Entwicklungen, die bis heute nachwirken, ihren Ursprung haben. Ziel ist es, durch einen veränderten Blickwinkel, einem, der Spannungsverhältnisse thematisiert und Verflechtungen sichtbar macht, einen Beitrag zum Thematisieren von „neuen“ Geschichten zu leisten, die bestehende Strukturen und Master-Narrationen kritisch hinterfragen und helfen, ein bestehendes segmentäres schwarz-weiß Denken zu überwinden, das nach wie vor akademische Diskurse überschattet. Die Arbeit ist als eine Verflechtungsgeschichte zu verstehen, in der die südafrikanische Kunstgeschichte umfassender und die heterogene Künstlerschaft integrierend betrachtet wird.
Das Strukturgleichungsmodell (SEM) wird in den Sozial- und Verhaltenswissenschaften oft verwendet, um die Beziehung zwischen latenten Variablen zu modellieren. In der Analyse dieser Modelle spielt die Bewertung der Modellgüte eine wesentliche Rolle, wobei geprüft werden soll, ob das untersuchte Modell (Zielmodell) zu den erhobenen Daten passt. Dafür werden verschiedene inferenzstatistische und deskriptive Gütemaße verwendet. In nichtlinearen SEM, in denen nichtlineare Effekte, wie beispielsweise Interaktionseffekte, modelliert werden, gibt es bisher allerdings keine Verfahren, um die Modellgüte ausreichend prüfen zu können. Insbesondere der χexp2-Test ist für verschiedene nichtlineare SEM nicht geeignet (vgl. Klein & Schermelleh-Engel, 2010; Mooijaart & Satorra, 2009).
In dieser Arbeit werden zwei unterschiedliche nichtlineare SEM betrachtet. Das erste dieser Modelle wird für die Analyse von Interaktions- und quadratischen Effekten verwendet (quadratisches SEM, QSEM). Das zweite Modell ist das Heterogene Wachstumskurvenmodell (HGM; Klein & Muthén, 2006). In diesem Modell wird das latente Wachstumskurvenmodell (LGM), mit dem individuelle Wachstumsverläufe modelliert werden können, um eine heterogene Varianzkomponente des Slope-Faktors erweitert. Diese Heterogenität des Slope-Faktors ist abhängig von den Ausgangswerten und Kovariaten.
Ziel dieser Arbeit war es, die Bewertung der Modellgüte für das QSEM und das HGM zu verbessern. Für das QSEM und das HGM wurde jeweils ein globaler Modelltest entwickelt („Quasi-Likelihood-Ratio-Test“; QLRT). Darüber hinaus wurden Differenztests für diese Art der Modelle diskutiert. Außerdem wurde für beide Modelle je ein Gütemaß bereitgestellt, um fehlende Nichtlinearität, wie fehlende nichtlineare Terme bzw. fehlende Heterogenität der Slope-Varianzen, aufdecken zu können (der Homoscedastic Fit Index, HFI, für das QSEM und der hhet-Test für das HGM).
Die Entwicklung der neuen Gütemaße ist im Wesentlichen von der verwendeten Schätzmethode abhängig. Für beide Modelle, das QSEM und das HGM, wurde in dieser Arbeit die Quasi-Maximum-Likelihood-Methode (Quasi-ML-Methode; Wedderburn, 1974) ausgewählt, mit der für beide betrachteten Modelle geeignete Schätzungen erzielt werden können (Klein & Muthén, 2006, 2007). Die Quasi-ML-Methode ist vergleichbar mit der Maximum-Likelihood-Methode, berücksichtigt allerdings Fehlspezifikationen der LogLikelihood-Funktion, wie beispielsweise kleinere Abweichungen von der angenommenen Verteilung. Für das QSEM wurde im Rahmen der Entwicklung der Modelltests eine zur Schätzung von QSEM entwickelte Quasi-ML-Methode (QML-Methode; Klein & Muthén, 2007) vereinfacht zu der „simplified QML“-Methode (sQML-Methode; Büchner & Klein, 2019). Für die sQML-Methode ist es erheblich einfacher als für die QML-Methode einen globalen Modelltest zu entwickeln. In einer Simulationsstudie konnte gezeigt werden, dass die sQML-Methode ähnlich gute Schätzeigenschaften wie die QML-Methode aufweist.
Die Idee der neuen globalen Modelltests für das QSEM und das HGM besteht darin, statt des für das lineare SEM verwendeten χexp2-Tests, der ein Likelihood-Quotienten-Test („Likelihood Ratio Test“, LRT) ist, einen Quasi-LRT (QLRT) zu verwenden, der auf der Quasi-ML-Methode basiert (Büchner & Klein, 2019; Büchner, Klein & Irmer, 2019). Wie für den χexp2-Test soll das Zielmodell mit einem unbeschränkten Vergleichsmodell verglichen werden. Ist der Unterschied zwischen den Modellen groß, wird darauf geschlossen, dass das Zielmodell nicht gut zu den Daten passt. Die Schwierigkeit bei der Entwicklung solcher QLRT liegt dabei in der Definition eines Vergleichsmodells. Die hier verwendete Idee für solche Vergleichsmodelle besteht darin, wie im χexp2-Test, die Beschränkungen durch das Zielmodell im Vergleichsmodell aufzuheben. Eine weitere Herausforderung ist die Bestimmung der asymptotischen Verteilung der QLRT-Statistiken, die nicht, wie viele LRT-Statistiken, asymptotisch χexp2-verteilt sind. Deshalb wurde die korrekte asymptotische Verteilung dieser Teststatistiken bestimmt, die das Ermitteln von p-Werten ermöglicht.
Globale Modelltests sind zwar geeignet, wichtige Aussagen zur Passung des Modells zu machen, ermöglichen aber keine direkte Aussage über den Vergleich zweier konkurrierender Modelle. Ein solcher Modellvergleich ist aber wichtig, um ein möglichst sparsames Modell zu erhalten. Zum Vergleich ineinander geschachtelter Modelle werden häufig Differenztests verwendet. Diese werden auch in der Arbeit mit dem QSEM und dem HGM empfohlen. Allerdings ist zu beachten, dass die Teststatistiken für mit der Quasi-MLMethode geschätzten Modelle nicht χexp2-verteilt sind. Im Rahmen dieser Arbeit wurde eine korrekte asymptotische Verteilung angegeben. Im Speziellen wurde der Differenztest für den Vergleich zwischen einem HGM und einem LGM vorgestellt, mit dem getestet wird, ob die im HGM modellierten heterogenen Slope-Varianzen notwendig sind.
Ein weiteres Ziel bestand darin, fehlende Nichtlinearität, die nicht in einem Modell berücksichtigt ist, aufzudecken. Dafür wurde ein Test für Regressionsmodelle, der hhet-Test (Klein, Gerhard, Büchner, Diestel & Schermelleh-Engel, 2016), angepasst. Für das SEM wurde dieser Test zu einem Fit-Index, dem HFI (Gerhard, Büchner, Klein & SchermellehEngel, 2017), weiterentwickelt und darin die Verteilung der Residuen der abhängigen Variable bewertet. Der HFI deckt dabei Veränderungen in der Verteilung auf, die durch fehlende nichtlineare Terme verursacht sind. Für das LGM wird der hhet-Test verwendet, um fehlende heterogene Entwicklungsverläufe aufzudecken. Es wird die Verteilung der mit dem LGM standardisierten beobachteten Variablen geprüft.
Für alle vorgeschlagenen Gütemaße wurden Simulationsstudien durchgeführt, um ihre Eignung für die Bewertung des QSEMs bzw. des HGMs zu prüfen. Die α-Fehler-Raten waren meistens nahe an dem erstrebten 5%-Niveau. Für den QLRT für das QSEM bei kleinen Stichproben und für den HFI bei komplexeren Modellen waren sie allerdings erhöht. Darüber hinaus zeigten die Tests insgesamt eine gute Teststärke für das Aufdecken von Fehlspezifikationen. Wie in allen statistischen Tests muss dafür die Stichprobengröße ausreichend groß sein. Die praktische Anwendbarkeit der beiden QLRTs, des hhet-Tests und des Differenztests für das HGM wurde anhand von empirischen Beispielen aufgezeigt.
Hintergrund: Die Komplexität einer medikamentösen Behandlung steigt mit der Anzahl der Medikamente, der Einzeldosen und der Darreichungsformen und bedroht dadurch die Adhärenz der Patienten. Patienten mit Multimorbidität benötigen oft flexible, individualisierte Behandlungsschemata. Häufige Medikationsänderungen im Verlauf der Behandlung können jedoch die Komplexität einer Therapie weiter erhöhen.
Ziel: Das Ziel der vorliegenden Arbeit war es daher, Medikationsveränderungen bei älteren Patienten mit Multimorbidität und Multimedikation in der hausärztlichen Praxis zu beschreiben und deren Abhängigkeit von soziodemographischen und weiteren Merkmalen zu untersuchen. Zudem sollten die Medikationsveränderungen in den Daten der cluster-randomisierten kontrollierten PRIMUM-Studie (Priorisierung der MUltimedication in Multimorbidity) analysiert werden, um Effekte der komplexen PRIMUM-Intervention zu untersuchen und damit einen Beitrag zur Prozessevaluation zu leisten.
Methoden: In der vorliegenden Arbeit wurden Daten der PRIMUM-Studie, die in 72 Allgemeinpraxen durchgeführt wurde, retrospektiv analysiert. Dazu wurde ein Algorithmus entwickelt, der die Wirkstoffe, die Wirkstärke, die Dosierung und die Darreichungsform zur Beurteilung von Änderungen an der von Ärzten berichteten Medikationsdaten während zweier Intervalle (Basiswert bis sechs Monate: Δ1; sechs bis neun Monate: Δ2) untersucht. Diese Veränderungen wurden auf Verordnungs- und Patientenebene deskriptiv sowie auf die Assoziation zu soziodemographischen und Versorgungsmerkmalen uni- und multivariat analysiert und auf Interventionswirkungen überprüft.
Ergebnisse: Von 502 Patienten (im Durchschnitt 72 Jahre, 52% weiblich) beendeten 464 die Studie. Medikationsveränderungen traten bei 98,6% der Patienten auf. Die maximale Anzahl an Medikationsänderungen pro Patient betrug 21 in Δ1 und 20 in Δ2. Die Gesamtzahl der Medikamente pro Patient blieb dabei weitgehend konstant und betrug im Median zu allen drei Messzeitpunkten 8 (IQR an T0 und IQR an T1: 6-9 und IQR an T2: 6-10). Änderungen bezogen auf den Wirkstoff während Δ1 und Δ2 traten bei 414 (82,5%) und 338 (67,3%) Patienten auf, Dosierungsänderungen bei 372 (74,1%) und 296 (59,2%) und in der Wirkstärke bei 158 (31,5%) bzw. 138 (27,5%). Die Darreichungsform wurde bei 79 (16%) der Patienten sowohl in Δ1 als auch in Δ2 geändert. Simvastatin, Ramipril, Metformin und Aspirin waren am häufigsten von Veränderungen betroffen. Am häufigsten verordnet waren ASS, Metoprolol und Bisoprolol sowie Simvastatin. Medikationsänderungen traten häufiger nach vorhergehenden Aufenthalten im Krankenhaus auf und Dosisreduktion war bei männlichen Patienten häufiger zu verzeichnen. In der Interventionsgruppe waren Medikationsänderungen um 19% wahrscheinlicher. Insbesondere waren Dosisreduktionen und das Ansetzen von neuen Medikamenten in der Interventionsgruppe signifikant häufiger.
Schlussfolgerungen: Bei älteren Patienten mit Multimedikation und Multimorbidität wurden die Therapiepläne häufig geändert. Auf Verordnungsebene ist dies hauptsächlich auf Absetzen und Dosisanpassungen zurückzuführen, gefolgt von Ansetzen und Wiederansetzen von Medikamenten. Dies kann die (longitudinale) Komplexität der Medikation für Patienten erhöhen und ggf. nachteilige Folgen für Therapieadhärenz und Arzneimitteltherapiesicherheit haben. Zudem wird deutlich, dass die medikamentöse Verordnungsqualität in querschnittlichen Erhebungen nicht zuverlässig beurteilt werden kann. In der PRIMUM-Studie wurden häufiger Änderungen in der Interventions- gegenüber der Kontrollgruppe vorgenommen - hauptsächlich das Ansetzen neuer Medikamente und Dosisreduktion. Damit konnten Effekte der komplexen Intervention gezeigt werden, die im Einklang mit den Zielen der Intervention zur Optimierung von Multimedikation steht.
Gegenstand der vorliegenden Arbeit sind die Untersuchungen lichtgesteuerter Reaktionen der zwei Retinalproteine Channelrhodopsin-2 (ChR-2) und Proteorhodopsin (PR) mit Hilfe zeitaufgelöster Laserspektroskopie.
Da der Mechanismus der Kanalöffnung des ChR-2 bis heute nicht vollständig aufgeklärt werden konnte, beschäftigt sich diese Arbeit insbesondere mit den Prozessen, die direkt nach der Photoanregung des Retinals stattfinden und die Kanalöffnung vorbereiten. Es wurde dabei gezielt auf für die Funktion des Proteins wichtige Faktoren wie strukturelle Besonderheiten des Chromophors und seiner Umgebung eingegangen und deren Auswirkung auf die Dynamik der Photoreaktionen sowie die Veränderungen im Protein nach der Anregung untersucht.
Zunächst wurden die Ergebnisse der vis-pump-IR-probe-Experimente an ChR-2 im Bereich der Carbonylschwingungsbanden protonierter Glutamat- und Aspartat-Reste dargestellt. Dabei wurde insbesondere die Bildungsdynamik der Differenzbanden in diesem Spektralbereich untersucht und in Anlehnung an die vorhandene Literatur eine Bandenzuordnung der für die Funktion des Proteins wichtigen Aminosäurereste vorgenommen. Aus den Messergebnissen konnte geschlossen werden, dass die mit der Kanalöffnung einhergehenden Konformationsänderungen in ChR-2 durch eine effektive Aufnahme der Überschussenergie durch das Protein auf einer sub-Pikosekunden-Zeitskala vorbereitet werden.
Des Weiteren wurden spektroskopische Untersuchungen an der R120H-Mutante des ChR-2 vorgestellt. Da diese Mutante bei elektrophysiologischen Messungen keine Kanalaktivität zeigte, sollte zunächst geklärt werden, ob die Mutation einen Einfluss auf die Retinalisomerisierung und den nachfolgenden Photozyklus hat. Dabei stellte sich heraus, dass die Retinalisomerisierung bei der R120H-Mutante zwar im Vergleich zum Wildtyp etwas verzögert stattfindet, der Einfluss der Punktmutation auf den weiteren Photozyklus jedoch insgesamt gering ist. Mit Hilfe der Kurzzeit-IR-Spektroskopie im Bereich der Amid I-Schwingung des Proteinrückgrats konnten für die Mutante allerdings signifikante Veränderungen der Bildungsdynamik sowie eine deutliche Abnahme der Amplitude des Amid I-Signals detektiert werden. Anhand weiterer Experimente an den Mutanten E123T und D253N in diesem Spektralbereich konnte anschließend ein Zusammenhang zwischen der Intensität der Amid I-Bande und der Kanalaktivität von ChR-2 festgestellt werden. Diese Ergebnisse ließen somit die Schlussfolgerung zu, dass die Aminosäurereste R120 und D253 eine entscheidende Rolle beim schnellen Transfer der Überschussenergie an das Protein nach der Retinalanregung und der so initiierten Kanalöffnung spielen.
Zusätzlich wurde der Frage nachgegangen, inwieweit Veränderungen am Chromophor die Isomerisierungsreaktion, den nachfolgenden Photozyklus sowie die Funktion des ChR-2 als Ionenkanal beeinflussen können. Zu diesem Zweck wurden spektroskopische Untersuchungen an einem mit 9-12-Phenylretinal (PheRet) rekonstituierten ChR-2 vorgestellt. Es konnte gezeigt werden, dass die Isomerisierung des PheRet zu seiner 13-cis-Form in ChR-2 stark verlangsamt ist und verglichen mit dem nicht modifizierten Chromophor deutlich ineffizienter abläuft. Es wurde außerdem festgestellt, dass die Veränderungen am Retinal zu deutlichen Beeinträchtigungen des Photozyklus führen. Zum einen wurde ein sehr schneller Zerfall des ersten Photoprodukts sowie die Bildung eines zusätzlichen, blauverschobenen Px-Zustands detektiert. Außerdem wurde festgestellt, dass nach der Deprotonierung des isomerisierten PheRet der Großteil der modifizierten Retinale in den Ausgangszustand zurückkehrt und der P3-Zustand nur in geringen Mengen gebildet wird. Die Messergebnisse führten somit zu der Schlussfolgerung, dass die all-trans-Konformation des PheRet in ChR-2 deutlich bevorzugt wird. Da elektrophysiologische Untersuchungen des Retinal-Analogons jodach keine signifikanten Verminderungen der Photoströme im Vergleich zum ATR in ChR-2 zeigten, ließ sich schließlich festhalten, dass die vorgenommenen Veränderungen am Chromophor, die zu einer deutlichen Hemmung der Isomerisierungsreaktion führen und einen starken Einfluss auf den nachfolgenden Photozyklus haben, nicht ausreichend sind, um die Kanalaktivität von ChR-2 komplett zu blockieren, solange noch ein kleiner Anteil der Retinale isomerisieren kann.
Der abschließende Teil der Arbeit beschäftigt sich mit der Absorption des UV-Lichts durch das Retinal mit deprotonierter Schiff-Base im grünabsorbierenden Proteorhodopsin, welches in einem alkalischen Medium im Dunkelzustand akkumuliert werden kann. Die Untersuchungen der Primärreaktion zeigten einen langsamen biexponentiellen Zerfall des angeregten Zustands der UV-absorbierenden Spezies mit anschließender Bildung des 13-cis-Photoprodukts. Aufgrund dieser Ergebnisse konnte ein Reaktionsmodell für die ersten Prozesse nach der UV-Anregung des Retinals im GPR aufgestellt werden, welches möglicherweise für weitere UV-Rezeptoren genutzt werden kann.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Implantatprothetische Versorgung von Lippen-, Kiefer-, Gaumenspalt-Patienten mit ITI-Implantaten
(2010)
Ziel dieser Arbeit war es, die implantatprothetische Rehabilitation von LKG-Patienten mit transgingivalen ITI-Implantaten mit einer dreimonatigen Einheilphase hinsichtlich Funktion, Ästhetik und Patientenzufriedenheit zu untersuchen. Insgesamt wurden bei 17 Patienten 24 Implantate im Bereich der ehemaligen Spalte inseriert. Diese wurde bei allen Patienten mit einer sekundären Osteoplastik geschlossen. Bei 14 Patienten wurde aufgrund eines insuffizienten Knochenangebotes eine Augmentation im Sinne einer tertiären Osteoplastik durchgeführt. Bei zwei Patienten konnte simultan implantiert werden. Alle Knochendefekte wurden mit autologen Transplantaten vom Beckenkamm oder Kieferwinkel augmentiert. Nach dreimonatiger Einheilphase wurden die Implantate mit verschraubten oder zementierten Suprakonstruktionen prothetisch versorgt. Die Mundgesundheitsbezogene Lebensqualität (MLQ) wurde mit der Deutschen Kurzversion des Oral Health Impact Profile (OHIP-G 14) gemessen und mit den Normwerten der Deutschen Allgemeinbevölkerung verglichen. Das ästhetische Ergebnis wurde anhand von Farbfotos von Zahnärzten, zahnmedizinischen Laien und den Patienten selbst bewertet. Als objektives Messinstrument wurde der Implantat Kronen Ästhetik Index verwendet. Nach einer durchschnittlichen Nachuntersuchungszeit von 40 (±22) Monaten ergaben sich folgende Ergebnisse: 23 Implantate (95,8%) befanden sich in situ und unter Belastung. Der röntgenologisch gemessene marginale Knochenabbau betrug 1,15±2,16 mm. Des Weiteren wurden periimplantäre Sondierungstiefen von 2,56±0,66 mm, eine Breite der keratinisierten Mukosa von 2,71±1,1 mm und ein Periotestwert von 0,18±6,5 gemessen. Der Summenwert des OHIP G-14 betrug bei 50% der Patienten ≤ 2. Es konnte festgestellt werden, dass die implantatprothetische Versorgung von augmentierten LKG-Spalten mit transgingivalen ITI-Implantaten und einer Belastung nach drei Monaten eine sichere Behandlungsmethode mit langfristig hoher Erfolgsrate ist. Aus funktioneller Sicht sind die Ergebnisse vergleichbar mit Patienten ohne Spalte oder Augmentation. Die MLQ von LKG-Patienten nach implantatprothetischer Rehabilitation ist vergleichbar mit Individuen der Allgemeinbevölkerung, die keinen herausnehmbaren Zahnersatz tragen. Aufgrund von Einschränkungen im Bereich der periimplantären Weichgewebe sind die ästhetischen Resultate kompromittiert aber für alle Befragten zufriedenstellend. Der Implantat Kronen Ästhetik Index kann zur Dokumentation der ästhetischen Ergebnisse der implantologischen Behandlung von LKG-Patienten empfohlen werden. Das Ziel zukünftiger Konzepte sollte sein, das ästhetische Endresultat der periimplantären Weichgewebe zu verbessern. Da die funktionelle Belastung von transgingivalen Implantaten im augmentierten Spaltbereich nach drei Monaten zum jetzigen Zeitpunkt kein Standardvorgehen ist, müssen weitere Untersuchungen zeigen, inwieweit dieses Therapiekonzept eventuell höhere Verlustraten oder ästhetische Ergebnisse beeinflusst.
Die vorliegende Dissertation befasst sich mit dem Umstieg von papierbasiertem (PBA) auf computerbasiertes Assessment (CBA), insbesondere in Large-Scale-Studien. In der Bildungsforschung war Papier lange Zeit das Medium für Assessments, im Zuge des digitalen Zeitalters erhält der Computer aber auch hier Einzug. So sind die großen Bildungsvergleichsstudien, wie PISA (Programme for International Student Assessment) oder PIAAC (Programme for the International Assessment of Adult Competencies), und nationalen Studien über Bildungsverläufe und -entwicklungen im Rahmen des NEPS (Nationales Bildungspanel) bereits umgestiegen oder befinden sich im Prozesses des Umstiegs von PBA auf CBA. Findet innerhalb dieser Studien ein Moduswechsel statt, dann muss die Vergleichbarkeit zwischen den Ergebnissen der unterschiedlichen Administrationsmodi gewährleistet werden. Unterschiede in den Eigenschaften der Modi, wie beispielsweise im Antwortformat, können sich dabei auf die psychometrischen Eigenschaften der Tests auswirken und zu sogenannten Modus Effekten führen. Diese Effekte wiederum können sich in Unterschieden zwischen den Testscores widerspiegeln, sodass diese nicht mehr direkt miteinander vergleichbar sind. Die zentrale Frage dabei ist, ob es durch den Moduswechsel zu einer Veränderung des gemessenen Konstruktes kommt. Ist dies der Fall, so können Testergebnisse aus unterschiedlichen Administrationsmodi nicht miteinander verglichen und die Ergebnisse aus dem computerbasierten Test nicht analog zu den Ergebnissen aus dem papierbasierten Test interpretiert werden. Auch Veränderungen, die aus Messungen zu verschiedenen Zeitpunkten und mit unterschiedlichen Modi resultieren, lassen sich dann nicht mehr beschreiben. Es kann jedoch auch Modus Effekte geben, die zwar nicht das gemessene Konstrukt betreffen, aber sich beispielsweise in der Schwierigkeit der Items niederschlagen. Solange aber das erfasste Konstrukt bei einem Moduswechsel unverändert bleibt, können diese Modus Effekte bei der Berechnung der Testscores berücksichtigt und die Vergleichbarkeit gewährleistet werden. Somit ist, nicht nur im Hinblick auf gültige Trendschätzungen, der Analyse von Modus-Effekten ein hoher Stellenwert beizumessen. Da die bisherige Befundlage in der Literatur zu Modus-Effekten sowohl hinsichtlich der Stärke der gefundenen Effekte, als auch in Bezug auf die verwendeten Methoden sehr heterogen ist, ist das Ziel des ersten Beitrags dieser publikationsbasierten Dissertation, eine Anleitung für eine systematische Durchführung einer Äquivalenzuntersuchung, speziell für Large-Scale Assessments, zu geben. Dabei wird die exemplarisch dargelegte Modus-Effekt-Analyse anhand von zuvor definierten und in ihrer Bedeutsamkeit belegten Kriterien auf der Test- und Item-Ebene illustriert. Zudem wird die Möglichkeit beschrieben, auftretende Effekte anhand von Eigenschaften des Administrationsmodus’, beispielsweise des Antwortformats oder der Navigationsmöglichkeiten innerhalb des Tests, zu erklären. Im zweiten und dritten Beitrag findet sich jeweils eine empirische Anwendung der im ersten Beitrag beschriebenen schematischen Modus-Effekt-Analyse mit unterschiedlicher Schwerpunktsetzung. Dazu wurden die Daten eines Leseverständnistests aus der Nationalen Begleitforschung von PISA 2012 sowie zweier Leseverständnistests im NEPS, die jeweils sowohl papier- als auch computerbasiert administriert wurden, analysiert. Das Kriterium der Konstrukt-Äquivalenz steht dabei als wichtigstes Äquivalenz-Kriterium im Fokus. Zusätzlich wurde Äquivalenz in Bezug auf die Reliabilität und die Item-Parameter (Schwierigkeit und Diskrimination) untersucht. Im zweiten Beitrag wurden darüber hinaus interindividuelle Unterschiede im Modus-Effekt in Bezug zu basalen Computerfähigkeiten und zum Geschlecht gesetzt. Der dritte Beitrag fokussiert die Item-Eigenschaften, die als mögliche Quellen von Modus-Effekten herangezogen werden können und bezieht diese zur Erklärung von Modusunterschieden in die Analyse mit ein. In beiden Studien wurde keine Evidenz gefunden, dass sich das Konstrukt bei einem Wechsel des Administrationsmodus ändert. Lediglich einzelne Items wiesen am Computer im Vergleich zum PBA eine erhöhte Schwierigkeit auf, wobei sich der größte Teil der Items als invariant zwischen den Modi erwies. Für zwei Item-Eigenschaften wurde ein Effekt auf die erhöhte Schwierigkeit der Items am Computer gefunden. Interindividuelle Unterschiede im Modus-Effekt konnten nicht durch basale Computerfähigkeiten oder das Geschlecht erklärt werden.
Diese Dissertation leistet einen wesentlichen Beitrag zur Systematisierung von Äquivalenzuntersuchungen, insbesondere solchen in Large-Scale Assessments, indem sie die wesentlichen Kriterien für die Beurteilung von Äquivalenz herausstellt und diskutiert sowie deren Analyse methodisch aufbereitet. Die Relevanz von Modus-Effekt Studien wird dabei nicht zuletzt durch die Ergebnisse der beiden empirischen Beiträge hervorgehoben. Schließlich wird der Bedeutung des Einbezugs von Item-Eigenschaften hinsichtlich der Beurteilung der Äquivalenz Ausdruck verliehen.
Im Rahmen der vorliegenden Arbeit wurden Inhibitoren der bakteriellen Resistenzproteine New Delhi Metallo-β-Lactamase 1 (NDM-1), die beiden Mutanten der Verona-Integron Encoded Metallo-β-Lactamase 1 und 2 (VIM-1, bzw. -2), sowie die Imipenemase 7 (IMP-7) entwickelt.
Auf Grund natürlicher Selektion, aber vor allem auch bedingt durch den unüberlegten und verschwenderischen Einsatz von β-Lactam-Antibiotika, ist eine weltweite Zunahme an multiresistenten Erregern zu beobachten. Einer der Hauptgründe dieser Resistenzen sind die Metallo- β-Lactamsen (MBL), welche vor allem in Gramnegativen Bakterien vertreten sind und für die Hydrolyse und damit der Desaktivierung der β-Lactam-Wirkstoffe verantwortlich sind. Neben der Suche nach anderweitig wirkenden Antibiotika, ist die Entwicklung von Inhibitoren der MBLs von vordringlicher Bedeutung.
Basierend auf der Grundstruktur des ACE-Hemmers Captopril, wurden trotz synthetischer Herausforderungen erfolgreich mehrere Strukturen mit inhibitorischer Aktivität gegenüber den MBLs synthetisiert. Der Prolinring von Captopril wurde in einer neuen Variante der Captopril-Synthese durch verschiedene Ring- und nicht cyclische Teilstrukturen ersetzt. Durch die Entwicklung einer Schutzgruppenstrategie, konnte die Ringstruktur durch einen Piperazin-Rest ersetzt werden. Dies erlaubt es, die Molekülstruktur auf dieser Seite zu erweitern. Des Weiteren wurde eine neue Syntheseroute etabliert, welche es auf elegante Weise ermöglicht, weitere Derivatisierungen an der Methylgruppe des Captoprils durchzuführen.
In einem proteinbasierten Testsystem wurden die synthetisierten Substanzen auf ihr inhibitorisches Potential hin untersucht. Dabei wurden IC50-Werte im niedrig einstelligen mikromolaren, für drei Verbindungen sogar im sub-mikromolaren Bereich ermittelt. Die erhaltenen Ergebnisse wurden für die drei aktivsten Inhibitoren durch eine Erhöhung des Schmelzpunktes in einem TSA-Testsystem erfolgreich verifiziert. Mittels ITC-Untersuchungen konnte die unterschiedlichen Gewichtungen der entropischen und enthalpischen Beiträge zur Bindung der Inhibitoren an die untersuchten MBLs aufgezeigt werden. Hierdurch konnten die scheinbar widersprüchlichen Ergebnisse der ermittelten IC50-Werte und Schmelzpunktverschiebungen für die Verbindung DBDK48 bezüglich der NDM-1 aufgeklärt werden.
Die Strukturen DB320 konnte erfolgreich mit VIM-2 co-kristallisiert werden. Dies ermöglicht eine genauere Untersuchung und qualifizierte Aussagen über die Bindungsverhältnisse zwischen Protein und Ligand.
Für zwei der synthetisierten Inhibitoren sollte untersucht werden, ob deren Aktivität in vitro auch in Bakterien erhalten bleibt. Dazu wurden pathogene klinische Isolate und Laborstämme, welche mit dem Resistenzplasmid transfiziert wurden, und gegen Imipenem resistent sind, herangezogen. Durch die Zugabe der Inhibitoren konnte die Wirksamkeit von Imipenem wiederhergestellt werden.
Es konnte eine HPLC-Methode etabliert werden, welche eine Abschätzung der Polaritäten in Abhängigkeit der Retentionszeiten erlaubt. Dadurch konnte ein direkter Zusammenhang zwischen der Polarität der Verbindungen und dem Grad der Wirksamkeit im MIC-Testsystem aufgezeigt werden.
Durch die Untersuchung der Inhibitoren auf die Proteine ACE und LTA4H, konnten zwei Ziel-Proteine der Captopril-Grundstruktur als unerwünschte Nebenziele ausgeschlossen werden. Des Weiteren führte die Behandlung von U937-Zellen, selbst bei einer hohen Konzentration von 100 µM, weder zu Auffälligkeiten in einem WST-1 Assay, noch zu einer erhöhten Freisetzung von LDH. Daher kann davon ausgegangen werden, dass die Verbindungen über keine zytotoxischen Eigenschaften verfügen.
Untersuchungen zum HIV-assoziierten Immun-Rekonstitutions-Inflammationssyndrom bei Tuberkulose
(2021)
HIV- und Tuberkulose (TB)-koinfizierte Patienten können nach Beginn einer antiretroviralen Therapie (ART) als Komplikation ein Immunrekonstitutionssyndrom (IRIS) entwickeln. Dabei kommt es zu einem Neuauftreten oder einer Verschlechterung von klinischen Symptomen oder radiologischen Befunden im Zusammenhang mit der TB. Präsentieren kann sich ein IRIS entweder als eine plötzliche Verschlechterung der Infektion nach ART-Beginn („paradoxical/paradoxes IRIS“) oder durch ein Demaskieren einer vorher klinisch inapparenten und unbehandelten Infektion („unmasking/demaskierendes IRIS“). Aufgrund nicht einheitlich definierter Diagnosekritierien kann die Diagnosestellung im klinischen Alltag eine Herausforderung darstellen.
Ziel dieser Dissertation war es deshalb, klinische Charakteristika, Risikofaktoren und ggf. protektive Faktoren für die Entwicklung eines IRIS bei TB zu identifizieren. Diese Ergebnisse sollten zu besseren Verständnis und Vorhersagen von IRIS im Zusammenhang mit TB beitragen.
Dazu wurden retrospektiv Daten von 52 Patienten, die im Zeitraum 01.01.2010 - 30.06.2016 mit einer HIV-Infektion und zur Behandlung einer aktiven Tuberkulose stationär in der Infektiologie des Uniklinikums Frankfurts aufgenommen wurden, pseudonymisiert erfasst. Es wurden u. a. Arztbriefe, Laborbefunde, Fieberkurven und Visitenberichte aus dem Patientenmanagementprogramm „ORBIS“, der Datenbank „epidem“ und des Laborinformationsprogramms „Nexus swisslab“ des Uniklinikums Frankfurt genutzt. Zu den Parametern gehörten neben patientenspezifischen Daten wie Alter und Geschlecht unter anderem auch Routinelaborparameter, Serologien, Art der TB, genaue ART und TB-Therapien und Laborparameter, die zur Beurteilung einer Entwicklung der Immunrekonstitution und der virologischen Suppression hinweisend sind. Dazu zählen insbesondere HI-Viruslastwerte, CD4- und CD8-Zellzahlen für einen Zeitraum von 48 Wochen ab ART-Beginn.
Zur Untersuchung der unterschiedlichen IRIS-Arten wurden die Patienten in zwei Gruppen aufgeteilt: bereits mit einer ART vorbehandelte Patienten, bei denen somit die Entwicklung eines demaskierendem IRIS möglich war, und ART-naive Patienten, die theoretisch ein paradoxes IRIS entwickeln konnten. Durch Beurteilung des Krankheitsverlaufes und unter spezieller Berücksichtigung der HI-Viruslast im Verlaufe der ART wurde nach der IRIS-Definition von French et al. (2004) festgelegt, ob ein IRIS vorlag. Bei unklaren Fällen erfolgte eine gemeinsame Besprechung und definitive Einteilung im kliniksinternen Kolloquium. Schließlich wurde die statistische Auswertung mithilfe des Statistikprogramms „bias“ durchgeführt und dabei jeweils die „IRIS“ mit der „Nicht-IRIS“-Gruppe verglichen. Angewandt wurden der Exakte Fisher-Test für kategorische und der Wilcoxon-Mann-Whitney-Test für numerische Variablen.
Die paradoxe IRIS-Inzidenz betrug 29,7 %, die demaskierende IRIS-Inzidenz 46,7 %. Am häufigsten präsentierte sich das IRIS in der Frankfurter Kohorte mit Fieber, am zweithäufigsten als Lymphadenopathie oder mit respiratorischen Beschwerden. Für sowohl Patienten mit paradoxem als auch demaskierendem IRIS zeigte sich ein signifikant längerer Krankenhausaufenthalt als für Patienten, die kein IRIS entwickelten. Sonst wurden für das demaskierende IRIS keine weiteren statistisch signifikanten Parameter gefunden, u. a. aufgrund Limitationen wie der sehr kleinen Studienpopulation (15 Patienten).
Patienten mit paradoxem IRIS hatten zudem eine signifikant höhere Rehospitalisierungsrate (63,3 % vs. 15,4 %; p= 0,006), was die klinische Relevanz aufzeigt. Außerdem korrelierten extrathorakale TB-Manifestationen (p= 0,025), niedrige CD4+-Lymphozyten-Zellzahl (p= 0,006) und hohe Viruslast (p= 0,017) vor ART-Beginn mit einer paradoxen TB-IRIS-Entwicklung. Diese Patienten sollten folglich nach ART-Beginn besonders engmaschig klinisch kontrolliert werden, da bei ihnen ein IRIS wahrscheinlicher ist. Ebenfalls statistisch signifikant zeigte sich erhöhte Laktatdehydrogenase (LDH) und erniedrigtes Albumin im Serum. In Kombination mit den davorgenannten Parametern könnten die Werte dabei behilflich sein, das individuelle paradoxe IRIS-Risiko bei Tuberkulose einzuschätzen. ART-Bestandteile oder Zeit zwischen dem Beginn der TB-Therapie und ART hatten in der Studie keinen Einfluss.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Die Kunstpädagogik setzt sich, wie auch die bildende Kunst, immer mit neuen Mitteln und Medien der bildnerischen bzw. künstlerischen Gestaltung auseinander. Sie versucht diese darüber hinaus kunstdidaktisch zu konzeptualisieren und für den Kunstunterricht handhabbar zu machen. Zu diesen neuen Medien gehören heute digitale mobile Medien, sie werden von Kunstschaffenden und Kunstvermittelnden vielfältig eingesetzt. Mit der vorliegenden Untersuchung wird der Einsatz von digitalen mobilen Medien – gegenwärtig vorwiegend repräsentiert durch Smartphones und Tablet-Computer – konzeptualisiert und auf verschiedene Potentiale und Risiken hin analysiert. Ein erstmals eigens entwickeltes fachdidaktisches Modell soll durch aufeinander abgestimmte Komponenten einen kongruenten und begründeten Einsatz von digitalen mobilen Medien im Kunstunterricht ermöglichen und zu einer angemessenen Implementierung des neuen Mediums in den Kunstunterricht beitragen. Durch die vorgenommene Erprobung des o.g. Modells in Feldern der Kunstpädagogik und deren Reflexion ergeben sich Modifikationen sowie weiterführende Forschungsfragen – sowohl spezifisch die Kunstpädagogik als auch allgemein die Pädagogik und Didaktik betreffend.
Der Name Histamin hat seinen Ursprung aus dem griechischen Wort "histos" (Gewebe) und spielt auf sein breites Spektrum an Aktivitäten, sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen an. Histamin ist eines der Moleküle mit welchem man sich im letzten Jahrhundert am intensivsten beschäftigt hat.
Im Jahr 1907 wurde das Histamin erstmals synthetisiert. Drei Jahre später gelang es, dieses Monoamin erstmals aus dem Mutterkornpilz Claviceps purpurea zu isolieren. Weitere 17 Jahre vergingen, ehe Best et al. Histamin aus der humanen Leber und der humanen Lunge isolieren konnten. Best konnte somit beweisen, dass dieses biogene Amin einen natürlichen Bestandteil des menschlichen Körpers darstellt. Nach der Entdeckung wurden dem Histamin mehrere Effekte zugeschrieben. Dale et al. beobachteten, dass Histamin einen stimulierenden Effekt auf die glatte Muskulatur des Darms und des Respirationstraktes hat, stimulierend auf die Herzkontraktion wirkt, Vasodepression und ein schockähnliches Syndrom verursacht.
Popielski demonstrierte, dass Histamin dosisabhängig einen stimulierenden Effekt auf die Magensäuresekretion von Hunden hat. Lewis wiederum beschrieb erstmals, dass Histamin einen Effekt auf der Haut hervorruft. Dies zeigte sich durch verschiedene Merkmale, wie geröteter Bereich aufgrund der Vasodilatation und Quaddeln aufgrund der erhöhten Gefäßpermeabilität. Des Weiteren wurde Histamin eine mediatorische Eigenschaft bei anaphylaktischen und allergischen Reaktionen zugeschrieben. Zusätzlich spielt das biogene Amin eine entscheidende Rolle im zentralen Nervensystem (ZNS), unter anderem beim Lernen, bei der Erinnerung, beim Appetit und beim Schlaf-Wach-Rhythmus. Von den zahlreichen physiologischen Effekten des Histamins ist seine Rolle bei Entzündungsprozessen, der Magensäuresekretion und als Neurotransmitter am besten verstanden.
Evaluation der SSRI-Medikation bei Kindern und Jugendlichen bezüglich ansteigender Suizidalität
(2012)
Zielsetzung dieser Arbeit war die Klärung der Frage, inwieweit eine SSRI-Medikation
bei Kindern und Jugendlichen mit dem Ansteigen der Suizidalität in Zusammenhang
steht. Es sollte untersucht werden, ob Suizidgedanken und Suizidverhalten im
Verlauf eines stationären Aufenthaltes allgemein ansteigen, diese nur bei
vorliegender Medikation mit SSRI ansteigen, etwa nur bei bereits vorliegender
Suizidalität ansteigen, oder ob suizidales Gedankengut allein unter einer
Wechselwirkung der Faktoren „SSRI-Medikation“ und „vorliegende Suizidalität“
entsteht.
Zur Klärung der Fragen wurden im Rahmen einer klinischen Studie Patienten
zwischen 12 und 19 Jahren über ein Fragebogeninventar befragt. Die Stichprobe
wurde konsekutiv im Zeitraum von Juni 2004 bis Dezember 2006 aus den
aufgenommen Patienten im Zentrum der Kinder- und Jugendpsychiatrie des
Klinikums der Johann Wolfgang Goethe-Universität in Frankfurt am Main rekrutiert.
Sie umfasste 44 Patienten. Ausgeschlossen wurden hierbei hochgradig geistig
retardierte Patienten, Patienten mit ausgeprägter Lese- und Rechtschreibschwäche,
sowie psychotisch erkrankte Patienten. Zur Teilnahme an der Studie war eine
Einverständniserklärung von Seiten der Eltern nötig. Zur Untersuchung der
Fragestellung wurde ein spezielles Fragebogeninventar erstellt zu dem der SBQ,
BSI, JTCI 12-18, YSR, EWL, die Achse V und die wöchentliche Erhebung externaler
Stressoren gehört. Die Suizidalität wurde so hinsichtlich eines Zusammenhangs mit
Depressivität, Impulsivität, Ängstlichkeit, Aggressivität, externalen sozialen Faktoren
und einer SSRI-Medikation in einem Gesamtzeitraum von fünf Wochen untersucht.
Das Gesamtkollektiv teilte sich in 14 männliche und 30 weibliche Patienten. Der
jüngste Patient war 12 Jahre, der älteste 19 Jahre (mittleres Alter 15,68).
Anhand des SBQ (d = 1,83) und des BSI (d = 2,09) Fragebogeninventars konnten
Suizidgedanken und -verhaltensweisen (Erhängen, Vergiften, etc.) sehr gut zwischen
„Suizidalen“ und „Nicht-Suizidalen“ trennen.
Die SSRI haben keinen signifikanten Effekt auf die Befindlichkeit (EWL), auf die
pathologiebezogene Aggressivität und Ängstlichkeit (YSR) und die
persönlichkeitsbezogene „Impulsivität“ und „Ängstlichkeit“ (unter 1%- Niveau).
Abschließend kann somit geschlossen werden, dass kein signifikanter
Zusammenhang zwischen der Gabe von SSRI und Suizidalität besteht.
S. leicht übererarbeitete Version der Dissertation: Das "Handbook of...", um das es in dieser Arbeit geht, wird, wenn es vollendet werden sollte, 20 Bände mit insgesamt ca. 16000 Seiten Informationen zu einer aus Anonymisierungsgründen hier nicht näher bezeichneten Bevölkerungsgruppe umfassen, die im gegenwärtigen Nordamerika als ethnische Minderheit gilt. Der komplette Titel des Handbook war länger, wird aber ebenfalls aus Gründen der Anonymisierung nicht erwähnt. Es war als eine Enzyklopädie geplant, die die bis dato gewonnenen wissenschaftlichen Kenntnisse über die Geschichte und Kultur dieser Gruppe von der frühesten Prähistorie bis zur Gegenwart mit dem Ziel zusammenfassen sollte, ein von ausgesuchten Wissenschaftlern geschriebenes enzyklopädisches Referenzwerk nicht nur für Fachleute, sondern auch für die Allgemeinheit zu schaffen (General Editor 1987). In Form einer Monographie wird dargestellt, wo und wie das Handbook produziert wurde, welche unterschiedlichen berufs- und branchenkulturellen Elemente im Redaktionsbüro zusammentrafen und welche von außen auf es einwirkten, wobei natürlich nur eine Auswahl beschrieben und keine komplette Auflistung vorgenommen werden konnte. Das "Handbook of ..." wurde Mitte der sechziger Jahre geplant, Anfang der siebziger konkret begonnen und war 1997 bei Band 10 von 20 geplanten Bänden angekommen. Im Redaktionsbüro wurden die von vielen verschiedenen Autoren geschriebenen Beiträge aneinander angeglichen, um eine für Enzyklopädien erforderliche Einheitlichkeit zu erreichen. Überprüft, und gegebenenfalls korrigiert, wurden die Texte auf die Einhaltung des Themas und ihre Schlüssigkeit hin, auf eine (in Angleichung an andere Beiträge des Bandes und der Serie) einheitliche Schreibweise von Namen und Begriffen, auf korrekte Sachangaben sowie auf fehlerfreie Zitate und Literaturangaben. Solche Überprüfungen wurden nicht nur für das Handbook vorgenommen, sondern genauso in anderen großen und renommierten Enzyklopädie- und Lexikonverlagen wie der Encyclopedia Britannica und dem Brockhausund Dudenverlag. Durch die Stellung als Wissensautorität und 'letzte Instanz' in der Klärung von strittigen Fragen waren sie es ihrem Ruf schuldig, (möglichst) fehlerfreie Werke herauszubringen. ...
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
Die Dissertation ist in den Bereichen der semiklassischen Quantengravitation und der pseudokomplexen Allgemeinen Relativitätstheorie (pk-ART) anzusiedeln. Dabei wird unter semiklassischer Quantengravitation die Untersuchung quantenmechanischer Phänomene in einem durch eine klassische Gravitationstheorie gegebenen gravitativen Hintergrundfeld verstanden und bei der pk-ART handelt es sich um eine Alternative zu der aktuell anerkannten klassischen Gravitationstheorie, der Allgemeinen Relativitätstheorie (ART), die die reellen Raumzeitkoordinaten der ART pseudokomplex erweitert. Dies führt zusammen mit einer Veränderung des Variationsprinzips in führender Ordnung auf eine Korrektur der Einstein- Gleichung der ART mit einem zusätzlichen Quellterm (Energie-Impuls-Tensor), dessen exakte Form jedoch bisher nicht bekannt ist.
Die Beschreibung der Gravitation als Hintergrundfeld ergibt sich zwangsläufig daraus, dass auf Basis der ART bisher keine quantisierte Beschreibung für sie gefunden werden konnte. Jedoch wird erhofft, dass die Untersuchung semiklassischer Phänomene Hinweise auf die korrekte Theorie der Quantengravitation gibt. Zudem motiviert der Mangel einer quantisierten Gravitationstheorie die Verwendung alternativer Theorien, da sich dadurch die Frage stellt, ob die ART die korrekte Beschreibung klassischer Felder ist.
Das Ziel der vorliegenden Dissertation war die grundlegenden Unterschiede zwischen der ART und der pk-ART für gebundene sphärisch symmetrische Zustände der Klein-Gordon- und der Dirac-Gleichung zu identifizieren und ein qualitatives Modell der Vakuumfluktuationen in sphärisch symmetrischen Materieverteilungen zu bestimmen, wobei der Zusammenhang der pk-ART mit den Vakuumfluktuationen in der Annahme besteht, dass ein Zusammenhang zwischen ihnen und dem zusätzlichen Quellterm der pk-ART existiert. Dafür wurden die gebundenen Zustände der Klein-Gordon- und der Dirac-Gleichung für drei verschiedene Metrikmodelle (zwei ART-Modelle und ein pk-ART-Modell) mit konstanter Dichte systematisch numerisch berechnet, einige repräsentative Grafiken erstellt, anhand derer die grundlegenden Unterschiede der Ergebnisse der ART-Modelle und des pk-ART-Modells erörtert wurden, und die ART Ergebnisse der Dirac-Gleichung soweit wie möglich mit Ergebnissen der Literatur verglichen. Insbesondere wurde dabei festgestellt, dass die Energieeigenwerte in der pk-ART im Gegensatz zu denen in der ART in Abhängigkeit der Ausdehnung des Zentralobjekts ein Minimum aufweisen. Zudem wurden die Energieeigenwerte der Klein-Gordon-Gleichung teilweise sowohl über das Eigenwertproblem einer Matrix als auch über ein Anfangswertproblem berechnet und es wurde festgestellt, dass die Beschreibung als Eigenwertproblem deutlich uneffektiver ist, wenn dafür die Basis des dreidimensionalen harmonischen Oszillators genutzt wird. Für die Entwicklung des qualitativen Vakuumfluktuationsmodells wurden zwei Näherungen für den Erwartungswert des Energie-Impuls-Tensors in führender Ordnung für die Schwarzschildmetrik (ART) verglichen und die Verwendung eines qualitativen Modells durch die dabei auftretende Diskrepanz gerechtfertigt. Danach wurden die Vakuumfluktuationen für Metriken konstanter Materiedichte mit Hilfe einer der Näherungen in führender Ordnung berechnet und ein Modell gesucht, das den gleichen qualitativen Verlauf aufweist. Im Anschluss wurde dieses Modell noch für einfache Metriken mit variabler Materiedichte verifiziert.
Die Dissertation leistet mit der Analyse der gebundenen Zustände einen Beitrag in der Identifikation der Unterschiede zwischen der pk-ART und der ART und führt somit auf weitere mögliche Messgrößen, die der Unterscheidung der beiden Theorien dienen könnten. Weiterhin ermöglicht das abgeleitete Modell eine Verfeinerung der schon publizierten Ergebnisse über Neutronensterne und die für die Erstellung nötigen Vorarbeiten leisten einen Beitrag zur Identifikation des
pk-ART Quellterms.
Das CD-44-Molekül ist ein membranständiger Oberflächenrezeptor, der als Adhäsionselement von Tumorzellen im Rahmen der Metastasierung genutzt wird. Berichte verweisen auf eine direkte Korrelation zwischen CD-44-Expression eines Tumors und der klinischen Prognose. Darüber hinaus kann der CD-44-Rezeptor auch intrazelluläre Signalwege aktivieren, und als solches Signalelement in die Regulation des Zellzyklus eingreifen.
Im Rahmen der vorliegenden Arbeit wurde postuliert, dass der CD-44-Rezeptor zellzyklusabhängige Veränderungen erfährt und sich daraus Modifikationen des Adhäsionsverhaltens von Tumorzellen ergeben.
Repräsentativ wurde an der Magenkarzinom-Zell-Linie MKN-45 die CD-44-Expression bzw. dessen Splice-Varianten während des Zellzyklus fluorometrisch untersucht (FACS-Analyse, konfokale Laserscan-Mikroskopie). Parallel wurde das Adhäsionsverhalten an isolierten und kultivierten humanen Endothelzellen evaluiert. Die Tumorzellen wurden zuvor mittels Aphidicolin synchronisiert. Als Kontrolle dienten nicht-synchronisierte Zellen.
Die Untersuchungen verdeutlichten eine spezifische Expression der CD-44-Varianten CD44v4, CD44v5, CD44v7. Die Inkubation der Tumorzellen mit Aphidicolin bewirkte eine ausgeprägte Akkumulation von MKN-45-Zellen in der S-Phase. Nach Absetzen des Aphidicolins und Freisetzung in den Zellzyklus kam es zur signifikanten zyklusabhängigen Modulation der Rezeptorexpression. CD44v4, CD44v5 und CD44v7 waren in der G2/MPhase gegenüber der G0/G1- und S-Phase deutlich vermehrt auf der Membran detektierbar. In der G2/M-Phase erhöhte sich zudem signifikant die Adhäsionskapazität der MKN-45-Zellen. Blockadestudien mit gegen die CD-44-Varianten gerichteten monoklonalen Antikörpern belegten die CD-44-abhängige Tumorzell-Endothelzell-Interaktion.
Die Studien belegen zumindest am in vitro Zellkulturmodell die zellzyklus-gesteuerte CD-44-Expression und CD-44-abhängige Invasionseigenschaften von Tumorzellen. Es lässt sich daraus ableiten, dass eine anti-tumorale Therapie an zuvor synchronisierten Tumorzellen womöglich besonders effektiv sein kann. Auch die pharmakologische Blockade des CD-44-Rezeptors könnte einen anti-tumoralen Effekt besitzen.
Larynxmasken gelten heute nicht nur als effektive Alternative im
Notfallmanagement des schwierigen Atemweges sondern werden mittlerweile
auch grundsätzlich als Option der Atemwegssicherung im Rahmen elektiver
Narkosen verwendet. In dieser Arbeit wurde das Nutzverhalten der
Anästhesisten hinsichtlich der unterschiedlichen Larynxmaskenmodelle Classic
und ProSeal untersucht. Diese unterscheiden sich insbesondere darin, dass
man bei Verwendung einer Larynxmaske ProSeal die Möglichkeit hat, über ein
vorgegebenes Lumen eine Magensonde zu platzieren. Ob dieser Unterschied
Auswirkung auf das Nutzverhalten des Anästhesisten bei Patienten mit
bekannter postoperativer Übelkeit und Erbrechen (PONV) hat und inwiefern
sich der Einsatz der Larynxmaske ProSeal wirklich auf die Inzidenz von PONV
auswirkt, war Gegenstand dieser Untersuchung.
Die Hypothese, dass durch die Möglichkeit der Platzierung einer Magensonde
bei Patienten mit bekannter PONV die Larynxmaske ProSeal häufiger genutzt
wird, um kontinuierlich Mageninhalt absaugen zu können, hat sich in dieser
Arbeit bestätigt. Dies konnte nicht nur auf die grundsätzlich häufigere Nutzung
besagter Maske in der Gruppe von Patienten mit bekannter PONV
zurückgeführt werden, sondern lässt sich gleichzeitig daraus schlussfolgern,
dass Patienten anderweitiger Risikogruppen sowohl mittels einer Larynxmaske
ProSeal versorgt wurden als auch eine Vielzahl weiterführender und
prophylaktisch antiemetisch wirksamer Maßnahmen erhielten. Allerdings konnte
abgesehen von der Tatsache, dass die PONV-Inzidenz in dieser Untersuchung
unter weiterführender PONV-Prophylaxe im Sinne der „Consensus Guidelines
for Managing Postoperative Nausea and Vomiting“ ohnehin ausgesprochen
niedrig war, kein signifikanter Nutzen zur Verhinderung von PONV durch die
Larynxmaske ProSeal dokumentiert werden.
In dieser Arbeit sollte die Bindung von Tetrahydromethanopterinderivaten an zwei Enzyme des methanogenen, CO2-reduzierenden Energiestoffwechselweges strukturell charakterisiert werden. In jenem Stoffwechselweg verläuft die schrittweise Reduktion von CO2 über die Bindung an den C1-Carrier Tetrahydromethanopterin (H4MPT), ein Tetrahydrofolat-Analogon, welches unter anderem in methanogenen Archaeen zu finden ist. Die thermophilen bzw. hyperthermophilen Ursprungsorganismen der untersuchten Enzyme, Methanothermobacter marburgensis, Methanocaldococcus jannaschii und Methanopyrus kandleri, sind aufgrund ihrer Anpassung an extreme Habitate durch spezielle genomische, strukturelle und enzymatische Eigenschaften von strukturbiologischem Interesse. Beim ersten in dieser Arbeit untersuchten Enzym handelte es sich um den aus acht Untereinheiten bestehenden membrangebundenen N5-Methyl-H4MPT:Coenzym M-Methyltransferasekomplex (MtrA-H). Dieser katalysiert in einem zweistufigen Mechanismus den Methyltransfer von H4MPT zum Co(I) der prosthetischen Gruppe 5’-Hydroxybenzimidazolylcobamid (Vitamin B12a), um die Methylgruppe dann auf Coenzym M zu übertragen. Gleichzeitig findet ein der Energiekonservierung dienender vektorieller Natriumtransport über die Membran statt. Für den Mtr-Komplex aus M. marburgensis (670 kDa) lag bereits ein Protokoll zur Reinigung unter anaeroben Bedingungen vor. Dieses wurde im Rahmen dieser Arbeit verbessert, für die Isolierung und Reinigung unter aeroben Bedingungen vereinfacht und für die Erfordernisse der zur Strukturbestimmung verwendeten elektronenmikroskopischen Einzelpartikelmessung optimiert. Neben der Präparation des kompletten Komplexes MtrA-H wurde als Alternative die Präparation des Enzymkomplexes MtrA-G unter möglichst vollständiger Abtrennung der hydrophilsten Untereinheit MtrH gewählt. Mit der zu diesem Zweck entwickelten Methode konnte das Abdissoziieren von MtrH besser als im etablierten Protokoll kontrolliert und somit die Homogenität der Probe deutlich verbessert werden. Dies schafft zum einen die Vorraussetzungen für eine Kristallisation zur Röntgenstrukturanalyse, zum anderen war auch in bei der elektronenmikroskopischen Einzelpartikelmessung erkennbar, dass mit dem Mtr-Komplex ohne MtrH bessere Ergebnisse zu erzielen sind. Parallel zu den Untersuchungen am Gesamtkomplex sollten die den Cobamid-Cofaktor bindende Untereinheit MtrA sowie die H4MPT-bindende Untereinheit MtrH in für die Kristallisation und röntgenkristallographische Untersuchung ausreichender Menge und Qualität gereinigt werden. Hierfür wurden MtrA und MtrH aus oben genannten Organismen für die heterologe Expression in E. coli kloniert, die Expressionsbedingungen optimiert und Reinigungsprotokolle etabliert. Anschließend wurden die Untereinheiten umfangreichen Kristallisationsversuchen unterzogen. Die Untereinheit MtrA aus M. jannaschii konnte ohne die C-terminale Transmembranhelix als lösliches Protein in E. coli produziert und als Holoprotein bis zur Homogenität gereinigt werden. Bei M. kandleri MtrA gelang die Herstellung von geringen Mengen teilweise löslichen StrepII-Fusionsproteins ohne C-terminale Transmembranhelix in E. coli. Eine Produktion der Untereinheit MtrH in E. coli als lösliches Protein war bei keiner der in dieser Arbeit getesteten Varianten möglich. Mit dem in Einschlusskörperchen exprimierten Protein aus M. marburgensis wurde eine Reinigung und Rückfaltung versucht. Auch eine Co-Expression der Untereinheiten MtrA und MtrH, durch welche eine bessere Faltung und Löslichkeit erreicht werden sollte, war nur in Einschlusskörperchen möglich. Das zweite in dieser Arbeit untersuchte Enzym, die F420 abhängige N5,N10 Methylen-H4MPT-Dehydrogenase (Mtd), katalysiert den reversiblen, stereospezifischen Hydrid-Transfer zwischen reduziertem F420 (F420H2) und Methenyl-H4MPT+, welches hierbei zu Methylen-H4MPT reduziert wird. Die Reaktion verläuft über einen ternären Komplex bestehend aus Protein, Substrat (Methylen-H4MPT) und Cosubstrat (F420), welcher strukturell charakterisiert werden sollte. Das gereinigte, rekombinante Enzym aus M. kandleri wurde mit verschiedenen H4MPT- und F420-Derivaten co-kristallisiert, die Struktur des ternären Komplexes röntgenkristallographisch bestimmt und die Bindung von H4MPT und F420 analysiert. Methenyl-H4MPT+ und F420H2 sind in der in dieser Arbeit gelösten Kristallstruktur in katalytisch aktiver Konformation gebunden, jedoch kann bei einer Auflösung von 1,8 Å nicht beurteilt werden, ob Methylen-H4MPT und F420 oder Methenyl-H4MPT+ und F420H2 vorlagen. Ein Vergleich mit der Struktur von M. kandleri-Mtd (KMtd) ohne Substrat und Cosubstrat ergab nur äußerst geringe Abweichungen in der Proteinkonformation, sodass sich KMtd überraschenderweise als Beispiel für ein Enzym mit ungewöhnlich starrer, vorgegebener Bindetasche erwies.