Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1741) (remove)
Language
- German (1741) (remove)
Is part of the Bibliography
- no (1741)
Keywords
- Schmerz (9)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Hepatitis C (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
Institute
- Medizin (723)
- Biowissenschaften (173)
- Biochemie und Chemie (132)
- Biochemie, Chemie und Pharmazie (98)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (47)
- Erziehungswissenschaften (38)
- Neuere Philologien (37)
- Psychologie (36)
- Kulturwissenschaften (32)
- Sportwissenschaften (29)
- Sprach- und Kulturwissenschaften (27)
- Geschichtswissenschaften (23)
- Psychologie und Sportwissenschaften (22)
- Geowissenschaften (18)
- Wirtschaftswissenschaften (18)
- Informatik (16)
- Philosophie (16)
- Rechtswissenschaft (15)
- Geowissenschaften / Geographie (11)
- Mathematik (9)
- Philosophie und Geschichtswissenschaften (9)
- Geographie (8)
- Sprachwissenschaften (7)
- Georg-Speyer-Haus (6)
- Informatik und Mathematik (6)
- Institut für Ökologie, Evolution und Diversität (5)
- Extern (3)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (3)
- MPI für Biophysik (3)
- Biodiversität und Klima Forschungszentrum (BiK-F) (1)
- Deutsches Institut für Internationale Pädagogische Forschung (DIPF) (1)
- Evangelische Theologie (1)
- Katholische Theologie (1)
- Senckenbergische Naturforschende Gesellschaft (1)
- Universität des 3. Lebensalters e.V. (1)
- Universitätsbibliothek (1)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (1)
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
Hintergrund: Die Endometriose und die Infertilität sind beide Erkrankungsbilder, die häufig miteinander assoziiert sind. So werden Literaturen zur Folge bei mindestens 30% der Endometriose Patientinnen eine Sterilität diagnostiziert, während wiederum bei etwa 25 - 50% der Patientinnen eine Endometriose als Hauptursache des unerfüllten Kinderwunsches erkannt wird. Die Laparoskopie dient bei Patientinnen mit Endometriose als wichtiger invasiver Eingriff, der entweder zu diagnostischen Zwecken im Sinne einer Ursachenabklärung dient und / oder zu therapeutischen Zwecken bei bereits bestätigter Endometriose assoziierter Infertilität durchgeführt wird.
Problemstellung und Zielsetzung: Anhand des laparoskopischen Befundes, z.B. durch das Erfassen des rASRM Scores bei Endometriose, kann Patientinnen im Voraus keine zuverlässige Aussage über die Chance auf eine postoperative Schwangerschaft geäußert werden. Das Ziel der hier vorliegenden Arbeit ist es, den Erfolg der laparoskopischen Behandlung bei Endometriose assoziierter Infertilität unter Einbezug von Patientencharakteristika, des intraoperativen Befundes, operativer Verfahren sowie der postoperativen Fertilitätsbehandlung zu beurteilen. Auf diese Weise soll den Frauen geholfen werden, im Voraus bzw. nach laparoskopischer Behandlung der Endometriose die Chance auf eine postoperative Schwangerschaft besser abzuschätzen. Es sollen somit Faktoren ermittelt werden, die die postoperative Fertilität protektiv oder ungünstig beeinflussen.
Material und Methoden: In die Studie aufgenommen wurden alle Patientinnen (n=102), die im Zeitraum von 2007 bis 2017 an der Universitätsklinik Frankfurt am Main einen laparoskopischen Eingriff mit der Diagnose einer Endometriose erhalten haben und einen unerfüllten Kinderwunsch von mehr gleich einem Jahr äußerten. Die Datenerhebung erfolgte über die elektronische Patientenakte sowie die telefonische Befragung der Studienteilnehmerinnen zur Patientencharakteristika und der postoperativen Fertilitätsbehandlung. Die statistische Auswertung wurde durch die Nutzung des Log Rank Tests / der Kaplan Meier Methode sowie uni- und multivariater Analysen mittels
Cox Regression durchgeführt.
Ergebnisse: Von den 102 Patientinnen konnten nach einer mittleren postoperativen Nachbeobachtungszeit von 70 Monaten 71 Patientinnen (69,6%) eine Schwangerschaft verwirklichen. Dabei wurden 21,6% der Frauen durch die alleinige Laparoskopie schwanger, während bei 48% der Frauen die Schwangerschaft durch die zusätzliche Nutzung reproduktionsmedizinischer Verfahren erreicht wurde. Die meisten Schwangerschaften ereigneten sich in den ersten 6 bis 12 Monaten nach der Operation. Die mittlere Dauer bis zur Schwangerschaft betrug 10 Monate. Der Log Rank Test zeigte keine statistisch signifikanten Unterschiede in den verschiedenen rASRM Stadien bei der Betrachtung der kumulativen Schwangerschaftsrate (rASRM 1: 83,3%; rASRM 2: 66,7%; rASRM 3: 93,8%; rASRM 4: 37,9%). Die uni- und multivariaten Analysen zeigten, dass die Dauer der Infertilität (Hazard Ratio: 0,85), das Vorkommen von intestinaler Endometriose (Hazard Ratio: 0,26) und ausgeprägten Adhäsionen (Hazard Ratio: 0,45), die Anzahl der Endometriose Lokalisationen (Hazard Ratio:0,82), die Anzahl der laparoskopischen Eingriffe für Endometriose (Hazard Ratio: 0,66) sowie der Voroperationen (Hazard Ratio: 0,75) und das Vorkommen von Endometriose Rezidiven (Hazard Ratio: 0,4) die Chance auf eine Konzeption signifikant ungünstig beeinträchtigen (p< 0,05). Ein protektiver Einfluss auf die Schwangerschaft zeigte sich nur für die Koagulation am Ovar (p= 0,02; Hazard Ratio: 7,74).
Schlussfolgerung: Die laparoskopische Behandlung scheint die Erfüllung des Kinderwunsches positiv zu beeinflussen, zumal fast ¾ der Patientinnen postoperativ schwanger wurden. Höhere Schwangerschaftsraten wurden durch die zusätzliche Nutzung der assistierten Reproduktionstherapie (ART) erreicht. Aus diesem Grund sollten Frauen für eine zusätzliche postoperative ART motiviert werden. Die Patientinnen sollten darauf aufmerksam gemacht werden, dass sie sich bei einem unerfüllten Kinderwunsch früher bei ihrem Arzt vorstellen sollten. Denn je länger die Zeit bis zur Operation einer Endometriose assoziierten Infertilität beträgt, desto schlechter ist die Chance auf eine postoperative Schwangerschaft (p= 0,02). Endometriosezysten am Ovar sowie deren Entfernung schränken die klinische Fertilität nicht signifikant ein. Die Anzahl der laparoskopischen Eingriffe sowie der abdominellen Voroperationen scheinen ein wichtigerer, ungünstiger Faktor in Hinblick auf die Schwangerschaft zu sein (p = 0,04). Außerdem könnte die Koagulation am Ovar eine wichtige Behandlungsmethode bei Endometriose assoziierter Infertilität sein. Diese Operationsmethode sollte durch weitere Studien und eine größere Stichprobe untersucht werden...
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Sowohl die Lebenserwartung als auch die Prävalenz HIV-infizierter Patient*innen ist stetig ansteigend,aufgrund der HAART und durch verbesserte diagnostische Methoden. Nicht-AIDS-definierenden Erkrankungen sind heutzutage die führenden Todesursachen. Durch verzögerte Diagnosestellung und zurückhaltenden Therapien gynäkologischer Malignome ist die Prognose im Vergleich zur Normalbevölkerung schlechter.
In dieser retrospektiven Fall-Kontroll-Studie des Universitätsklinikums Frankfurt am Mains wurden die Therapie und das Outcome gynäkologischer Malignome von 23 HIV-infizierten Patientinnen aus den Jahren 2009-2019 mit einer Kontrollgruppe aus dem gynäkologischen Krebszentrum der Klinik Essen Mitte verglichen, um herauszufinden, inwiefern eine HIV-Infektion das Outcome der Patientinnen beeinflusst.
Das gynäkologische Malignom, dominierend das Zervixkarzinom, trat durchschnittlich ein Jahrzehnt nach der HIV-Diagnose auf. Im Unterschied zu anderen Studien, ist unser Kollektiv überwiegend hellhäutig. Ein bekannter Drogenabusus ist häufig und zusammenhängend mit weiteren Koinfektionen.
Die HIV-Erkrankung ist bei mehr als der Hälfte der Patientinnen bereits fortgeschritten, jedoch ließ sich kein Zusammenhang zwischen dem Auftreten gynäkologischer Malignome und einer CD4-Zellzahl <500 CD4-Zellen/µl nachweisen. Die antiretrovirale Therapie entsprach größtenteils nicht den aktuellen Leitlinien.
Bis auf fünf Frauen wurden alle Frauen leitliniengerecht therapiert. Eine Korrelation zwischen der Therapie und der Tumorentität, der CD4-Zellzahl, dem Alter oder dem Stadium des Malignoms konnte nicht gezeigt werden.
Insgesamt liegt die 5-Jahresüberlebensrate der Kohorte bei 74.8%. Eine nicht leitliniengerechte Therapie ist nicht direkt mit einem schlechteren Outcome verbunden, jedoch mit einem weitaus kürzeren Follow-Up-Zeitraum von durchschnittlich 0.22 Jahren im Vergleich zu 4.85 Jahren bei leitlinienkonform therapierten Patientinnen. Es liegt ein statistisch signifikanter Unterschied zwischen der Kontrollgruppe und unserer Kohorte vor, sodass angenommen werden kann, dass bei Vorliegen einer HIV-Infektion die Therapie des gynäkologischen Malignoms häufiger nicht leitliniengerecht ist.
Bislang existieren nur wenige Studien, die die Therapie und das Outcome gynäkologischer Malignome bei HIV-infizierten Patientinnen untersuchen. Die Interaktion einer ART mit antineoplastischen Medikamenten und die Anwendung von Checkpointinhibitoren und einer „targeted therapy“ sollten Gegenstand weiterer Untersuchungen sein. Dafür sollten HIV-Patientinnen in Therapiestudien inkludiert werden, sodass geeignete Leitlinien erarbeitet werden können.
Gemeinsam ist den Autoimmunendokrinopathien, dass genetische Faktoren als auch Umweltfaktoren für die Ätiologie von Bedeutung sind. Das Vererbungsschema dieser genetischen Prädispositionsfaktoren ist komplex und schließt mehrere Kandidatengene ein. Besonders die HLA-Gene wurden eingehend in den letzten Jahren untersucht. Sie stellen einen wichtigen Risikofaktor für die Entstehung von Autoimmunendokrinopathien dar. Allerdings ist für keinen der bekannten Autoimmunendokrionopathien die genetische Prädisposition, die durch die HLA-Region vermittelt wird, weder ausreichend noch notwendig für die Entwicklung der Erkrankung. So nehmen weitere Kandidatengene eine bedeutende Rolle in der Entstehung von Autoimmunendokrinopathien ein. In den letzten Jahren haben Studien gezeigt, dass diejenigen Mechanismen des Immunsystems, die zur Erhaltung der peripheren T-Zell-Toleranz beitragen, essentiell für die Kontrolle von autoreaktiven T-Zellen sind. Die Elimination bzw. die Störung solcher Mechanismen kann somit in einer Autoimmunerkrankung münden. Folglich sind Gene, die Einfluss auf diese Mechanismen der peripheren Toleranz ausüben, eindeutige Prädispositionsfaktoren für die Entstehung von Autoimmunerkrankungen. CTLA-4 ist ein essentielles inhibitorisches Regulatormolekül für T-Zellen. In vivo- und In vitro- Untersuchungen haben gezeigt, dass CTLA-4 eine bedeutende Rolle in der Regulation von Selbsttoleranz einnimmt. Damit ist CTLA-4 ein entscheidendes Suspezeptibilitätsgen für Autoimmunität im Allgemeinen und könnte insbesondere für die T-Zell-vermittelten Autoimmunendokrinopathien bedeutend sein. Im Rahmen dieser Arbeit wurde nach einem Zusammenhang dieses Genortes mit Typ 1 Diabetes mellitus, Morbus Addison, Hashimoto-Thyreoiditis und Morbus Basedow in der kaukasischen Bevölkerung geforscht. Bei der Suche nach einer Assoziation zwischen CTLA-4 Polymorphismen und Typ 1 Diabetes mellitus zeigt sich eine signifikante Assoziation des -MH30 C/G - und -1661 A/G - Polymorphismus sowie des +49 A/G Exon 1- Polymorphismus des CTLA-4 Gens mit Typ 1 Diabetes mellitus. Beim Polymorphismus –MH30 C/G des CTLA-4 Gen zeigt sich ein signifikant gehäuftes Auftreten des Allels „G“ bei Patienten, die an Typ 1 Diabetes mellitus erkrankt sind. Dabei vermittelt das Allel „G“ bei der Allelfrequenzanalyse - wie auch bei der Genotypenanalyse ein signifikant erhöhtes Diabetes-Risiko. Das Allel „C“ hingegen ist signifikant seltener an Patienten und scheint somit eher protektiv gegen Typ 1 Diabetes mellitus zu wirken. Bei der Untersuchung des -1661 A/G Polymorphismus des CTLA-4 Gens bei Patienten mit Typ 1 Diabetes mellitus zeigt sich das Allel „A“ als krankheitsprädisponierend. Beim +49 A/G Polymorphismus führt die Substitution von Adenin zu Guanin an Position 49 des Exon 1 zu eine Threonin (Thr) /Alanin (Ala) Substitution am Kodon 17 der Signalpeptidsequenz. Die Untersuchung des +49 A/G Polymorphismus in der deutschen Population verdeutlicht, dass der Genotyp „G/G“ sowie das Allel „G“ (Alanin) krankheitsprädisponierend sind. Das Allel „A“ hat eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der – 319 – Promotorpolymorphismus zeigt keine Assoziation mit Typ 1 Diabetes mellitus. Die Haplotypanalyse -MH30/-1661 zeigt, dass der Haplotyp „CG“ bei Typ 1 Diabetes mellitus signifikant häufiger auftritt als in der Kontrollgruppe. Der Haplotyp –MH30G/- 1661G hat eine protektive Wirkung. Weiterhin vermittelt der Haplotyp -318/+49G ein erhöhtes Diabetes-Risiko, während der Haplotyp „C/A“ protektiv wirkt. Des Weiteren wurde die Assoziation der oben genannten vier Polymorphismen im CTLA-4 Gen mit der Autoimmunerkrankung Morbus Addison, untersucht. Beim - 1661A/G-Polymorphismus zeigt sich eine signifikant erhöhte Frequenz des Genotyp „A/A“ bei Patienten mit Morbus Addison. Der Genotyp „G/G“ sowie das Allel „G“ des Exon 1- Polymorphismus sind häufiger bei Patienten mit Morbus Addison als bei den Kontrollen und vermitteln somit ein erhöhtes Risiko an Morbus Addison zu erkranken. Im Gegensatz hierzu hat das Allel „A“ eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der –MH30 – Polymorphismus und der Promotorpolymorphismus des CTLA-4 Gen zeigen keine relevanten Assoziationen mit Morbus Addison in der deutschen Population. Die Haplotypanalyse der -319 und +49 Polymorphismen zeigt, dass der Haplotyp „C/A“ eine protektive Wirkung hat und daher das Risiko an Morbus Addison zu erkranken, senkt. Der Haplotyp – 319C/+49G birgt dagegen ein erhöhtes Erkrankungsrisiko. Bei Hashimoto-Thyreoiditis zeigte sich, dass der –MH30 C/G-Polymorphismus mit der Erkrankung assoziiert ist. Im Gegensatz zu den Ergebnissen bei Typ 1 Diabetes mellitus zeigt sich das Allel „C“ als krankheitsprädisponierend. Der Genotyp „C/C“ ist signifikant häufiger im Patientenkollektiv als in der Kontrollgruppe. Das Allel „G“ am Genort CTLA-4 –MH30 wirkt dagegen protekiv. Beim -1661 A/G – Polymorphismus treten beide homozygote Genotypen „A/A“ und „G/G“ im Patientenkollektiv häufiger auf als in der Kontrollgruppe. Der heterozygote Genotyp hingegen „A/G“ ist signifikant seltener in der Patientengruppe zu finden als in der Kontrollgruppe und hat somit eine protektive Wirkung. Die Untersuchung des -319 C/T – und des +49 A/G –Polymorphismus zeigt keine Assoziation mit Hashimoto – Thyreoiditis. Die Haplotypanalyse - MH30 / CTLA-4 – 1661 zeigt, dass die Haplotypen „CG“ und „GG“ eine krankheitsprädisponierende Wirkung haben und gehäuft im Patientenkollektiv auftreten als in der Kontrollgruppe. Der Haplotyp -319/ +49 weist bei Patienten mit Hashimoto- Thyreoiditis keine Assoziation auf. Analog zu den anderen oben aufgeführten Autoimmunendokrinopathien wurden auch vier CTLA-4 Polymorphismen auf ihre Korrelation mit Morbus Basedow hin untersucht. Es konnte hier gezeigt werden, dass die untersuchten Polymorphismen keinen wesentlichen Beitrag zur Vermittelung des genetischen Risikos für Morbus Basedow leisten. Die Korrelationsuntersuchung der Polymorphismen zeigte auch keine Assoziation der Haplotypen mit Morbus Basedow. Dies schließt jedoch das CTLA-4 Gen als ein Suspezeptibilitätsgen für Morbus Basedow nicht aus, zumal Assoziationen mit weiteren in dieser Arbeit nicht untersuchten CTLA-4 Polymorphismen bestehen können. Zusammengefasst wird durch die Untersuchung dieser Doktorarbeit die These unterstützt, dass das CTLA-4 Gen eine wichtige Rolle in der Entstehung der Autoimmunendokrinopathien einnimmt. Die hier untersuchten Polymorphismen des CTLA-4 Gens sind prädisponierende Faktoren für Autoimmunendokrinopathien, insbesondere für Typ 1 Diabetes mellitus, Morbus Addison und Hashimoto-Thyreoiditis.
In dieser Arbeit sollte der Einfluss von Trockenstress auf die Photosyntheserate von einer repräsentativen C3-Art und dreier repräsentativer Arten unterschiedlicher C4-Subtypen vergleichend untersucht werden, wobei die drei Subtypen der C4-Photosynthese im Vordergrund standen. Anhand der ausgewählten Arten der Modell-Gattung Panicum (s.l.), P. bisulcatum (C3), P. bulbosum (NADP-ME), P. miliaceum (NAD-ME) und P. maximum (PCK), konnten die unterschiedlichen Stoffwechseltypen, an phylogenetisch nah verwandten Arten, auf Unterschiede in der physiologischen Antwort auf den abiotischen Stressfaktor Trockenheit untersucht werden. Hierfür wurden zwei verschiedene Arten der Trockenstressinduktion durchgeführt. Ein Vergleich der Arten in Hinblick auf Unterschiede in der Trockentoleranz erfolgte anhand von Hydrokulturversuchen mit PEG6000 als Osmotikum. In diesem Fall wurde der jeweilige Stress sehr schnell induziert und über die Dauer von 6 Tagen in unterschiedlichen Intensitäten konstant gehalten. Anhand der durchgeführten Gaswechselmessungen und Bestimmungen der Chlorophyllfluoreszenzparameter konnte eindeutig die C3-Art P. bisulcatum als die am sensitivsten auf Trockenstress reagierende Art identifiziert werden. Die drei C4-Arten lagen in ihrer physiologischen Antwort auf die unterschiedlichen Trockenstressintensitäten verhältnismäßig nah zusammen. Bei schwächerem osmotischen Stress zeigte aber P. miliaceum, der Vertreter des NAD-ME Subtyps, eindeutig die geringste Beeinflussung der untersuchten Photosyntheseparameter, was im Wesentlichen auch bei stärkerem osmotischen Stress bestätigt wurde. Zudem zeigte P. miliaceum bei 1400 ppm CO2 im Messgas im Vergleich zu den anderen getesteten Arten eine signifikant höhere Wassernutzungseffizienz, was die bessere Anpassung des NAD-ME Subtypen an osmotischen Stress unterstreicht. Bei dem Trockenstressexperiment in Erde stand die physiologische Maximalantwort auf den natürlicheren, verhältnismäßig langsam induzierten, aber letztendlich starken Trockenstress im Vordergrund. Hier wurde für jede Art untersucht, welche limitierenden Faktoren unter Trockenstress auf die Photosyntheserate wirken. Dafür wurde neben Gaswechsel- und Chlorophyllfluoreszenzmessungen mit der Bestimmung der In-vitro-Aktivitäten der Enzyme des C4-Zyklus, der Bestimmung der PEPC und RubisCO-Gehalte anhand von SDS-PAGE und Western-Blot-Analysen, und der Bestimmung des Deepoxidationsgrades des Xanthophyllzykluses ausgewählte Teilreaktionen der C4-Photosynthese genauer untersucht. Bei allen untersuchten C4- Arten konnte bei dem starken Trockenstress eine eindeutige nicht-stomatäre Limitierung der Photosyntheserate festgestellt werden. Bei der C3-Art P. bisulcatum sprechen die Ergebnisse für eine Mischung aus stomatären und nicht-stomatären Faktoren, die die Photosynthese unter Trockenstress limitieren. Hier konnte eine Abnahme des RubisCO-Gehalts unter Trockenstress beobachtet werden, was ein möglicher Faktor für eine nicht-stomatäre Limitierung der Photosyntheserate unter Trockenstress sein kann. Aufgrund der im Mittel reduzierten In-vitro-Aktivitäten der Enzyme des NADP-ME C4-Zyklus (PPDK, PEPC, NADP-MDH und NADP-ME) und einer Abnahme des PEPC- und RubisCOGehalts bei trockengestressten P. bulbosum im Vergleich zu der entsprechenden Kontrolle, konnte bei dem Vertreter des NADP-ME Subtyps die nicht-stomatäre Limitierung der Photosyntheserate auf eine generelle Abnahme der an der C4-Photosynthese beteiligten Enzyme zurückgeführt werden. Anhand der Bestimmung der In-vitro-Aktivitäten von P. maximum konnte gezeigt werden, dass die als Nebenweg beschriebene Decarboxylierung des CO2 über das NAD-ME in den BSZ, wahrscheinlich im gleichen Maße abläuft wie der von KANAI und EDWARDS (1999) beschriebene Hauptweg (Decarboxylierung in den BSZ durch die PCK). Die beobachtete nicht-stomatäre Limitierung der Photosyntheserate unter Trockenstress wurde auf eine mögliche Abnahme der In-vitro-Aktivitäten des sogenannten Nebenweges zurückgeführt. Bei P. miliaceum, dem repräsentativen Vertreter des NAD-ME Subtyps, zeigte keines der C4-Enzyme eine Abnahme der In-vitro-Aktivität, noch konnte eine Abnahme des RubisCO Gehalts unter Trockenstress im Vergleich zur Kontrolle beobachtet werden. Diese Beobachtung deutete auf eine In-Situ-Inhibierung eines der C4-Enzyme hin. Aus diesem Grund wurden in dieser Arbeit bei P. miliaceum weiterführende Untersuchungen zur posttranslationalen Regulation der PEPC durchgeführt. Obwohl die PEPC unter Trockenstress in phosphorylierter und somit aktiver Form vorliegt, konnte gezeigt werden, dass bei trockengestressten P. miliaceum eine In-Situ-Inhibition der PEPC aufgrund einer Feedback-Inhibition durch das unter Trockenstress in den MZ akkumulierende Transportmetabolit Aspartat wahrscheinlich ist und somit die Photosyntheserate limitieren kann.
Das Ziel dieser Studie war der retrospektive Vergleich zweier fortschrittlicher robotergestützter Angiographie-Systeme in Bezug auf Strahlendosis und Bildqualität bei der Bildgebung im Rahmen der konventionellen transarteriellen Chemoembolisation (cTACE) von bösartigen Lebertumoren.
Dafür haben wir 106 Patienten (insgesamt 57 Frauen und 49 Männer; Durchschnittsalter 60 ± 11 Jahre), welche eine cTACE Therapie an einem der zwei Generationen von Roboter-Angiographieplattformen erhalten hatten, einbezogen. Die Patienten wurden in zwei Gruppen eingeteilt (n=53): Gruppe 1 (Behandlung am Gerät der ersten Generation) und Gruppe 2 (Behandlung am Gerät der zweiten Generation). Die Strahlendosis für die Fluoroskopie und die digitale Subtraktions-Angiographie (DSA) wurde zwischen den Angiographiegeräten der ersten bzw. zweiten Generation verglichen. Zu den besonderen Merkmalen des Systems der zweiten Generation- im Vergleich zum System der ersten Generation - gehörten ein verfeinertes kristallines Detektorsystem, zur verbesserten Rauschunterdrückung und eine fortschrittliche CARE-Filtersoftware, zur Senkung der Strahlendosis. Die Strahlendosis wurde mit einer herkömmlichen im Gerät verbauten Ionisationskammer gemessen. Die Bildqualität wurde von drei unabhängigen Radiologen anhand einer 5-Punkt-Likert-Skala bewertet. Beide Gruppen waren in Bezug auf Anzahl und Lage der Läsionen sowie Körpergewicht, BMI-Werte und anatomische Varianten der versorgenden Leberarterien vergleichbar (alle p > 0,05).
Das Dosisflächenprodukt (DAP) für die Fluoroskopie war in Gruppe 2 signifikant niedriger (1,4 ± 1,1 Gy·cm2) als in Gruppe 1 (2,8 ± 3,4 Gy·cm2; p = 0,001). Für DSA war DAP in Gruppe 2 (2,2 ± 1,2 Gy·cm2) signifikant niedriger (p = 0,003) gegenüber Gruppe 1 (4,7 ± 2,3 Gy·cm2). Die Ergebnisse für die DSA-Bildqualität (IQ) zeigten signifikante Verbesserungen für Gruppe 2 um 30% im Vergleich zu Gruppe 1 (p = 0,004). In der Fluoroskopie waren die Werte für den IQ in Gruppe 2 76% höher als in Gruppe 1 (p = 0,001). Eine gutes bis sehr gutes Inter-rater-agreement mit Kappa- Fleiss-Koeffizienten von κ = 0,75 für Gruppe 1 und κ = 0,74 für Gruppe 2 wurde erreicht.
Zusammenfassend ließ sich feststellen, dass die neueste Generation der robotergestützten Angiographiegeräte im Zusammenhang von cTACE der Leber eine erhebliche Reduzierung der Strahlendosis bei gleichzeitiger Verbesserung der Bildqualität in der Fluoroskopie und DSA-Bildführung ermöglicht.
Nikotinische Acetylcholin Rezeptoren (nAChR) sind ligandengesteuerte Ionenkanäle der pentameren Cys-Loop Familie, welche nach Bindung des Neurotransmitters Acetylcholin exzitatorische Signale in Muskeln und Neuronen vermitteln. Während die Funktion der Rezeptoren an der synaptischen Membran relativ gut untersucht wurde, gibt es bis heute kaum Erkenntnisse über die intrazellulären Prozesse und Proteine, die der selektiven Assemblierung von homologen Untereinheiten zu funktionalen Rezeptorpentameren zugrundeliegen.
Das C. elegans Genom kodiert für mehr als 29 nAChR Untereinheiten-Gene und besitzt damit die größte Anzahl bekannter Homologe innerhalb der untersuchten Arten. An der neuromuskulären Synapse (NMJ) des Nematoden sind zwei Typen von nAChR bekannt: der heteromere Levamisolrezeptor (L-AChR) und der homomere Nikotinrezeptor (N-AChR). Innerhalb dieser Arbeit wurde der funktionale Zusammenhang zwischen den nikotinischen Rezeptoren der NMJ von C. elegans und einem neuen rezeptorassoziierten ER-Proteinkomplex der Proteine NRA-2 und NRA-4 untersucht. Ihre vertebraten Homologe Nicalin und Nomo wurden zuerst im ER vom Zebrafisch im Zusammenhang mit dem TGF-β Signalweg beschrieben. Mutation der Proteine hat einen Agonist-spezifischen Einfluss auf die Aktivität von L-AChR und N-AChR. Die subzellulären Lokalisationsstudien demonstrierten, dass die beiden Proteine im ER von Muskelzellen wirken und dort mit Rezeptoruntereinheiten co-lokalisieren. Weiterhin ließ sich nachweisen, dass die relative Menge einzelner L-AChR-Untereinheiten an der synaptischen Oberfläche reduziert bzw. erhöht ist. Da die Rezeptoraktivität in Zusammenhang mit der Untereinheiten Komposition steht, wurde die Rolle von zusätzlichen Untereinheiten wie ACR-8 untersucht. Dies zeigte, dass die zusätzliche Mutation der Untereinheit acr-8 in nra-2 Mutanten den Einfluss der nra-2 Einzelmutation auf die Aktivität des L-AChR revertiert. Basierend auf diesen Ergebnissen lässt sich die Hypothese formulieren, dass der NRA-2/NRA-4 Komplex im ER von C. elegans als Kontrollinstanz fungiert welche dafür sorgt, dass nur die jeweils „korrekten“ Untereinheiten in funktionale Rezeptoren eingebaut bzw. andere vom Einbau in das Pentamer abgehalten werden. Durch Fehlen des aktiven Komplexes in Mutanten können nicht vorgesehene -Untereinheiten (z. B. ACR-8) in funktionale Pentamere mit veränderter Funktionalität eingebaut werden.
Im Rahmen dieser Dissertation wurden unterschiedliche Aspekte der Verbreitung der Vertreter des Pseudoterranova decipiens Komplexes betrachtet und Fragestellungen zur Ökologie und Humanpathogenität der Parasiten bearbeitet. Sie basiert auf drei (ISI-) Fachartikeln, in denen die Nutzung von Fischparasitengemeinschaften als ökologische Indikatoren für entlegene Ökosysteme des Südpolarmeeres (I), die Modellierung geeigneter Verbreitungsgebiete für Arten mit geringen Vorkommensdaten am Beispiel des P. decipiens Komplexes (II) und das Vorkommen potentiell humanpathogener P. bulbosa in unterschiedlichen Mikrohabitaten in Atlantischem Kabeljau (III) thematisiert wurde.
Die Parasitengemeinschaften der in Studie I untersuchten, nahverwandten Antarktisdorsche (Nototheniinae) Nototheniops larseni (n=40), N. nudifrons (n=40) und Lepidonotothen squamifrons (n=49) unterschieden sich hauptsächlich hinsichtlich seltener Parasitenarten. Pseudoterranova decipiens E zählte zu den häufigsten Parasiten der drei betrachteten Wirtsarten. Die Analyse der Wirtsspektren der auf Artebene bestimmten Parasiten zeigte eine geringe Spezifität antarktischer Fischparasiten im Larven- (z.B. Pseudoterranova decipiens E) und Adultstadium (z.B. Elytrophalloides oatesi). Für eine Nutzung als Bioindikatoren ergibt sich die Empfehlung, nicht auf einzelne Parasitenarten, sondern die Zusammensetzung von Parasitenfaunen zurückzugreifen und Parameter wie Abundanz oder Intensität zu berücksichtigen. Vergleiche mit Literaturdaten legten nahe, dass ein Studiendesign, das den periodischen Vergleich der Parasitierungsmuster von Nototheniinae ermöglichen soll, Standorteffekte berücksichtigen sollte. Da es sich bei der Probennahme demersaler Fische um ein aufwändiges und einschneidendes Verfahren handelt, sollten alternative Samplingmethoden vorangetrieben und eine Datenbasis dafür geschaffen werden.
Um die Belastung von Speisefischen mit potentiell humanpathogenen Parasiten in bestimmten Fanggebieten abzuschätzen, kann anhand von Vorkommens- und Umweltdaten mittels statistischer Modelle die Habitateignung für den Parasiten bestimmt werden. Eine Voraussetzung für eine verlässliche Modellierung bilden die Wahl eines geeigneten Algorithmus und die Qualität der Eingangsdaten. Für die Modellierung geeigneter Verbreitungsgebiete für die sechs Arten des P. decipiens Komplexes wurde im Rahmen von Studie II erstmalig ein biotischer Deskriptor herangezogen. Dem Ansatz lag die Annahme zugrunde, dass das Vorkommen geeigneter Endwirte der entscheidende, limitierende Faktor für die Verbreitung eines Parasiten ist, da nur so der Lebenszyklus geschlossen werden kann. Als Hypothesentest dienten Vergleiche der ökologischen Nischen von Parasiten und ihren spezifischen Endwirten im Nischenraum. Anhand der Endwirtdistanz wurde eine Verbesserung der Modellierungsergebnisse mit MaxEnt, gegenüber der ausschließlich auf abiotischen Prädiktoren basierenden Modellierung, für alle Pseudoterranova Arten, insbesondere jene mit einer geringen Anzahl Fundpunkte, erzielt. Grundsätzlich ist der Ansatz auf marine Parasitenarten, deren spezifische Endwirte verlässliche Vorkommensdaten aufweisen, übertragbar. Die Methode stellt jedoch keinen Ersatz für die Erhebung von Vorkommensdaten dar, weshalb die genetische Bestimmung schwer zu identifizierender Taxa sowie die Angabe von Metadaten in jeder parasitologischen Studie obligatorisch sein sollten.
Die Verteilung potentiell humanpathogener Parasitenstadien in für den menschlichen Verzehr vorgesehenen Fischen kann ein entscheidender Faktor für die Übertragung sein. Im Rahmen von Studie III wurde mit dem Referenztranskriptom von P. bulbosa das erste Transkriptom für eine Art den P. decipiens Komplexes erstellt. Anhand einer differentiellen Genexpressionsanalyse wurde untersucht, was die Verteilung der Parasiten auf unterschiedliche Mikrohabitate beeinflusst haben könnte. Dabei wurden siebzig differentiell exprimierte Gene identifiziert, die in aus Leber (32 Gene) und Viscera (38 Gene) von Atlantischem Kabeljau (Gadus morhua) isolierten Proben von P. bulbosa hochreguliert waren. Eine Erklärung für diesen subtilen Unterschied könnte ein Dauerstadium der P. bulbosa Larven zum Zeitpunkt der Probennahmen sein. Ob sich bestimmte Mikrohabitate innerhalb des Wirtes begünstigend auf den Parasiten auswirken, muss mit Hilfe experimenteller Studien gezeigt werden. Erste in Studie III erhobene Daten zum allergenen Potential von P. bulbosa sollten in serologischen Studien getestet werden. Als Grundlage für die Bewertung des pathogenen Potentials von P. bulbosa, sowie der weiteren Arten des P. decipiens Komplexes, sollten in experimentellen Studien NGS-Daten erhoben werden.
Im Rahmen dieser Dissertation wurde in drei methodisch unterschiedlichen Studien ein Bedarf besserer Referenzdaten aufgezeigt. Bestreben diese Datenlücken zu schließen, um das Potential der Methoden besser ausschöpfen zu können, müssen zukünftig noch weiter verstärkt werden.
In dieser Arbeit soll identifiziert werden, welcher der zahlreichen Vertreter einer Arzneistoffklasse sich letztlich auf dem Markt durchsetzen kann und ob bestimmte pharmakokinetische, pharmakodynamische, klinische oder praktische Substanzeigenschaften retrospektiv für den Markterfolg einer Substanz verantwortlich gemacht werden können. Zudem stellt sich die Frage, ob und in wie fern Analogpräparate einen Nutzen in der Arzneimitteltherapie mit sich bringen, obwohl ihnen zum Zeitpunkt ihrer Markteinführung nur ein geringer Innovationsgrad zugebilligt wurde. Um derartige Rückschlüsse ziehen zu können wurden exemplarisch folgende fünf Arzneistoffklassen untersucht, die sich durch eine Vielzahl an Vertretern auszeichnen: Arsphenamine, Sulfonamide, Benzodiazepine, Glucocorticoide sowie Betablocker. Der Untersuchungszeitraum bemisst sich folglich vom Anfang des 20. Jahrhunderts, als industriell gefertigte, chemisch definierte hochpotente Wirkstoffe die Therapie zu bestimmen begannen, bis etwa zum letzten Drittel des 20. Jahrhunderts als Preise und Kostenerstattungsfragen zusätzlich zu Substanzeigenschaften für den Markterfolg mitbestimmend wurden.
Die ethnografische Feldstudie untersucht die Lebenswege von jungen muslimischen Männern, die in einer armutsbetroffenen und stigmatisierten Hochhaussiedlung in der urbanen Peripherie aufwachsen. Sie vergleicht die Lebenswege derjenigen, die ein Hochschulstudium aufnehmen (college boys) mit der Gruppe derjenigen, die sich in der informellen Ökonomie der 'Straße' mit dem Drogenhandel als wichtigstem Zweig betätigen (corner boys). Die Lebensverläufe der jungen Männer, deren Familien meist im Zuge der Anwerbemigration ab den 1960er Jahren aus Marokko oder aus der Türkei eingewandert sind, werden anhand der Lebensverlaufstheorie (life course theory) von Glen Elder und Janet Giele erklärt. Die ethnografischen Beschreibungen werden methodisch um biografische Interviews mit college boys und corner boys und um Expertinneninterviews mit Fachleuten aus Organisationen wie Kitas, Schulen oder einer Moschee ergänzt. Die ethnografischen Beobachtungen werden auch ins Verhältnis zu Befunden aus der interdisziplinären sozialwissenschaftlichen Literatur gesetzt, die wiederum mit den in der Studie erhobenen und sehr persönlichen Lebensgeschichten von corner boys und college boys kombiniert werden. Der Forscher hatte während der Feldarbeit eine Doppelrolle, da er nicht nur als Ethnograf tätig war, sondern auch für die Stadt als Streetworker bzw. Sozialarbeiter in der Hochhaussiedlung beschäftigt war. Insofern gibt die Feldstudie auch einen Einblick in die staatlichen Unterstützungssysteme der Sozialen Arbeit.
Im Ergebnis entsteht die Geschichte eines sozialräumlich segregierten Milieus seit der Migration der Großeltern nach Deutschland. Sowohl für college boys als auch für corner boys dient die harte Lohnarbeit ihrer Eltern und Großeltern als negative Kontrastfolie. College boys streben nach beruflichem Erfolg und Anerkennung durch Bildungsabschlüsse. Corner boys hingegen leisten Widerstand gegen die Arbeitsethik und andere dominante Normen und wenden sich von der Lohnarbeit im Allgemeinen ab. In den Lebensverläufen von college boys wirken bestimmte Schutzfaktoren, die ihnen einen Bildungsaufstieg trotz armutsgeprägter Lebensverhältnisse ermöglichen. Zu diesen Schutzfaktoren zählen ein stabiler Familienkontext mit engen Bindungen, die Organisation eines strukturierten Alltags in Kindheit und Jugend mit Aktivitäten wie Nachhilfe und Sportvereinen und der praktizierte Islam mit seiner engen Verbindung von Glaube, Bildung und Abstinenz.
Durch die Arbeit entsteht ein Perspektivwechsel auf Hochhaussiedlungen der untersuchten Art. Statt der üblichen symbolischen Abwertung erscheinen sie durch die beschriebenen intergenerationalen Bildungsaufstiege als Orte mit besonders hoher sozialer Mobilität. Auf der anderen Seite wird mit den corner boys aber auch eine Gruppe beschrieben, in der sich Prekarität aufgrund von Ausgrenzungserfahrungen und einer anschließenden Resignation verfestigt hat. Die college boys bekommen Raum zur Entfaltung, während die corner boys metaphorisch gesprochen im Raum der Hochhaussiedlung gefangen bleiben. Die Faktoren, die diesen Unterschied erklären, werden in der Arbeit beleuchtet.
Die Atmungskette in der inneren Membran der Mitochondrien besteht aus fünf großen Enzymkomplexen. Die NADH-Dehydrogenase (I), Succinat-Dehydrogenase (II, indirekt), Cytochrom c-Reduktase (III) und Cytochrom c-Oxidase (IV) nutzen die Energie aus Elektronentransfers zum Aufbau eines Protonengradienten über die innere Mitochondrienmembran. Dieser wird anschließend von der FOF1-ATP-Synthase (V) als Energiequelle zur Phospho-rylierung von ADP verwendet. Für lange Zeit bestand eine Kontroverse, wie diese Proteine in der Membran organisiert sind. Nach dem „random collision“-Modell diffundieren sie frei als Einzelmoleküle und treffen sich nur zufällig, während sie nach dem „solid state“-Modell größere funktionelle Einheiten bilden. In den letzten Jahren gab es vermehrt Hinweise darauf, dass das letztere Modell das zutreffendere ist, da tatsächlich sogenannte Superkomplexe der Atmungskette in aktiver Form isoliert werden konnten. Schließlich konnte 2007 die erste drei-dimensionale Rekonstruktion eines Superkomplexes, bestehend aus Komplex I, dimerem Komplex III und Komplex IV publiziert werden. Aufgrund der Einschränkungen der verwendeten Negativkontrasttechnik hatte dieses Modell allerdings nur eine niedrige Auflösung und repräsentierte durch die Dehydrierung keinen nativen Zustand. Dadurch ließen sich die Strukturen der einzelnen Komplexe nur ungenau einpassen. Um diese Probleme zu umgehen, sollte eine Struktur unter Kryo-Bedingungen rekonstruiert werden. Um die für Kryo-EM benötigte größere Ausbeute und höhere Konzentration zu erzielen, wurde ein neues Reinigungsprotokoll für die Superkomplexe etabliert. Die wesentlichen Punkte darin sind der Austausch des für die Solubilisierung verwendeten Digitonins durch Amphipol A8-35 mittels ?-Cyclodextrin und eine anschließende Dichtegradienten-Ultrazentrifugation. Im BN-PAGE zeigten die auf diese Art gereinigten Superkomplexe das gleiche Banden- und Aktivitätsmuster wie Proben in Digitonin. Auch bei einer Einzelpartikelanalyse nach Negativ-kontrastfärbung konnten keine Unterschiede festgestellt werden und die Partikel zeigten ähnliche Orientierungen wie in der vorherigen Studie. Einige neue Ansichten ließen sich jedoch nicht zuordnen und stellten eventuell eine Verunreinigung mit größeren Superkomplexen dar. Da auch bei der Reinigung mit Amphipol die Proteinkonzentration letztlich nicht wesentlich erhöht werden konnte und sich die Superkomplexe nicht wie für Kryo-EM erforderlich in einen löchrigen Kohlefilm einlagerten, wurden die Proteine auf einem durchgehenden Kohlefilm in einer dünnen Pufferschicht vitrifiziert. Die dabei zu beobachtenden bevorzugten Orientierungen, sollten auch die Unterscheidung von verschiedenen Populationen von Superkomplexen erleichtern. Eine erste 3D-Rekonstruktion wurde mit Hilfe der „random conical tilt“-Methode errechnet. Dieses Modell wurde durch „projection matching“ bis zu einer Auflösung von 19 Å verfeinert, womit die Auflösung fast doppelt so hoch ist, wie bei der Rekonstruktion aus Negativ-kontrastfärbung (36 Å). Die Struktur repräsentiert einen natürlichen Zustand des Proteins und zeigt Details wie einzelne Domänen, Spalten zwischen Domänen und eine starke Krümmung des Membranarms von Komplex I, die zuvor nicht erkenn-bar waren. Die Amphipole bilden einen Gürtel um den Transmembranbereich. Die Röntgenstrukturen von Komplex I, III2 und IV konnten mit großer Präzision in die Dichtekarte eingepasst werden. Die wenigen kleinen Unterschiede zwischen Röntgenstrukturen und EM-Dichtekarte sind auf leichte Konformations-änderungen zurückzuführen. Die Kryo-EM-Rekonstruktion ist erheblich größer als die Rekonstruktion aus Negativfärbung, wodurch die enthaltenen Komplexe nur noch wenige punktuelle Kontakte haben. In den Zwischenräumen könnte eine spezielle Lipidumgebung die kleinen Elektronenüberträger Ubichinon und Cytochrom c in den Superkomplex integrieren. Ihre Bindestellen sind jeweils zueinander orientiert und die geringen Abstände, die zum ersten Mal bestimmt werden konnten, stützen die Hypothese eines gerichteten Substrattransfers über kurze Entfernungen. Von den möglichen Übertragungswegen scheint der kürzere mit weniger Transferreaktionen bevorzugt zu werden. Während der Entwicklung des neuen Reinigungsprotokolls für die Superkomplexe konnte zusätzlich eine neue Methode zur Rekonstitution von Membranproteinen entwickelt werden. Die solubilisierten Proteine werden dabei in Dichtegradienten mit steigenden Konzentrationen von ansolubilisierten Liposomen und Cyclodextrin zentrifugiert, wodurch ihnen langsam das Detergens entzogen und durch Lipid ersetzt wird. Proteoliposomen werden gleichzeitig von überschüssigem Lipid und Cyclodextrin-Detergens-Komplexen getrennt.
Die Familie von der Tann entstammt altem fuldischem Lehnsadel und war in den Prozess der Entstehung der fränkischen Reichsritterschaft von Beginn an eingebunden. Zur Reformationszeit taten sich vor allem die Brüder Eberhard und Alexander von der Tann hervor, die als fürstliche Ratgeber in Kursachsen bzw. Hessen tätig waren. Vor allem Eberhard von der Tann hat in vielfacher Weise an der Verwirklichung von Luthers Reformvorstellungen mitgewirkt. So war er 1555 auf dem Reichstag zu Augsburg als protestantischer Verhandlungsführer entscheidend am Zustandekommen des Religionsfriedens beteiligt, eine Tatsache, die in der einschlägigen Forschung bis heute noch wenig beachtet wurde.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Die Schwerpunkte dieser Arbeit sind elektrische, stationäre und zeitaufgelöste Transportmessungen an EuB6 sowie die Weiterentwicklung von Messmethoden und Analyseverfahren der Fluktuationsspektroskopie. Durch die Verwendung von
modernen Computern und Datenerfassungskarten konnten die Messmethoden effektiver eingesetzt werden.
Die ersten beiden Kapitel stellen die Grundlagen dar, die für diese Arbeit von Bedeutung sind. Der erste Teil dieser Arbeit wurde der Weiterentwicklung der bereits bekannten Messmethoden unter Verwendung einer schnellen Datenerfassungskarte gewidmet. Im Gegensatz zur Verwendung eines Signalanalysators bietet die Karte die Möglichkeit, auf die Rohdaten im Zeitraum zuzugreifen und sie anschließend mit einer selbst programmierten Software auszuwerten. Die technischen Methoden und der Aufbau der Software wurden in den Kapiteln 3 und 4 vorgestellt. Durch das Ersetzen des Signalanalysators kann bis zu 50% der Messzeit eingespart werden.
Durch die Code-Erweiterung kann bereits nach zwei hintereinander gemessenen Spektren vorläufig bei tiefen Frequenzen ausgewertet und somit frühzeitig entschieden werden, ob eine längere Messzeit aussichtsreich ist. Außerdem wird durch Verwendung der Code-Erweiterung eine sehr viel höhere Spektrendichte (Anzahl von Messpunkten) erreicht. Da im Gegensatz zum Signalanalysator alle gemessenen Spektren gespeichert werden, können in jeder Messung die Spektren auf ihre Korrelation (Korrelationskoeffizient und Zweites Spektrum) hin untersucht werden, ohne zusätzliche Messzeit zu benötigen.
Der zweite Teil dieser Arbeit befasst sich mit den elektrischen Transporteigenschaften von EuB6 und dem Verständnis der Kopplung zwischen Ladungs- und magnetischen Freiheitsgraden. Mittels Widerstands- und nichtlinearer Transportmessungen sowie Fluktuationsspektroskopie wurden Hypothesen von anderen Wissenschaftlern systematisch verifiziert, sowie neue, weiterführende Erkenntnisse gewonnen.
Direkte experimentelle Hinweise für die Phasenseparation sowie das Auftreten von Perkolation aus Transportmessungen fehlten bisher. In dieser Arbeit wurden daher systematisch die elektrischen Transportseigenschaften des Systems in Abhängigkeit von der Temperatur und vom Magnetfeld untersucht. Mittels Fluktuationsspektroskopie konnte erstmals ein direkter Hinweis auf perkolatives Verhalten in den Transporteigenschaften beobachtet werden. Ein starkes nichtlineares Transportsignal (dritter harmonischer Widerstand, DHW) im Bereich von TMI und TC ist eine Signatur einer räumlich inhomogenen Stromverteilung auf der Mikroskala und ein weiterer deutlicher Hinweis auf magnetisch induzierte elektronische Phasenseparation. Insbesondere tritt nichtlinearer Transport bei H = 0 im FM Bereich auf und kann im PM-Bereich bei T > TMI durch externe Magnetfelder induziert werden.
Die vorliegende Arbeit stellt die Phonologie, Morphologie und Syntax des Nyam, einer westtschadischen Minoritätensprache Nordostnigerias, dar. Es handelt sich um eine Erstbeschreibung, die im Zuge eines von der DFG finanzierten Projekts mit dem Titel „Das Nyam – Dokumentation einer westtschadischen Minoritätensprache“ durchgeführt werden konnte.
Ziel dieser Arbeit ist es, eine grammatische Beschreibung des Nyam – eine bis dato unbekannte Sprache – vorzulegen. Mit nur ca. 5000 Sprechern ist sie schon im Hinblick auf die geringe Zahl, vor allem aber durch die regionale Dominanz der mit ihr genetisch verwandten Verkehrssprache Hausa, akut in ihrer Existenz bedroht. Zudem befindet sich diese Sprache in einer geographisch exponierten Lage, d.h. sie ist weitgehend von Benue-Kongo-Sprachen umgeben. Vor diesem Hintergrund kann die Dokumentation des Nyam einerseits den Nyam-Sprechern selbst zur Erhaltung ihrer kulturellen Identität und der damit verbundenen Traditionen dienen. Andererseits ist dieser wissenschaftliche Beitrag als Ergänzung zu den noch fehlenden Grammatiken innerhalb der tschadischen Sprachfamilie und im Besonderen der Bole-Tangale-Sprachgruppe zu sehen und kann als Grundstein zukünftiger Forschungen für vergleichende Arbeiten mit den benachbarten Benue-Kongo-Sprachen betrachtet werden.
Das Projekt „Geo-Social Analysis of Physicians' Settlement" (kurz GAP) wurde ins Leben gerufen, um potentielle Lücken in der ambulanten medizinischen Versorgung deutscher Großstädte aufzudecken, insbesondere in Bezug auf den sozioökonomischen Status der in einem Praxisumfeld lebenden Bewohner. In der vorliegenden Studie erfolgte die Untersuchung des Niederlassungsverhaltens von Ärzten und Psychotherapeuten in Berlin-West im Hinblick auf sozioökonomische, demographische und topographische Faktoren.
Das Untersuchungsgebiet Berlin-West wurde in 251 Praxisumfelder untergliedert. Für diese wurden Daten zu Einwohnerzahl, Altersstruktur und Wohnlage sowie Arbeitslosen- und Ausländerquoten zusammengetragen. In vergleichenden Analysen konnten dann die Unterschiede im Niederlassungsverhalten der 20 Fachgebietskategorien hinsichtlich des sozialen Status der Praxisumfelder herausgearbeitet werden. Weitere Auswertungen beinhalteten eine genderspezifische Praxisumfeld-Analyse sowie Analysen nach Praxisform, Fremdsprachenkenntnissen der Ärzte und Psychotherapeuten sowie des Praxis-Jahres-Überschusses als Maß für das ärztliche Einkommen.
Im Rahmen einer Fachgebiet-Sozialindikatoren-Analyse ergab sich weder für die hausärztliche noch für den Großteil der fachärztlichen Versorgung in Berlin-West eine signifikante Bevorzugung von Gebieten mit einem höheren sozialen Status. Lediglich für die Gruppe der Ärztlichen und Psychologischen Psychotherapeuten zeigte sich, dass diese eindeutig vermehrt in Gegenden mit hohem sozialen Status niedergelassen sind. In der Gender-Analyse konnte gezeigt werden, dass Ärztinnen und Psychotherapeutinnen sozial schwächere Gegenden seltener als Niederlassungsstandort wählen. Im Rahmen einer Störfaktoren-Analyse konnten Zentrumsdistanz und Einwohnerdichte als mögliche Einflussfaktoren auf die Standortwahl der Ärzte und Psychotherapeuten ausgeschlossen werden.
Insgesamt zeigen die Ergebnisse, dass über eine Unterteilung der einzelnen Großstädte in mehrere Planungsbereiche – statt sie wie bisher als einen einzelnen großen zu betrachten – nachgedacht werden sollte. Um die medizinischen Bedürfnisse der sozial schlechter gestellten Bevölkerung besser abdecken zu können, wäre die Einführung eines Sozialfaktors, ähnlich dem des bereits existierenden Demographiefaktors (zur Anpassung an die Altersstruktur der Bevölkerung) für die Berechnung des tatsächlichen Ärztebedarfs empfehlenswert. Auf diese Art und Weise könnte zukünftig eine bedarfsgerechtere Planung der Ärzteverteilung erfolgen und somit ein gleichmäßigerer Zugang zu ambulanter vertragsärztlicher Versorgung für alle GKV-Versicherten gewährleistet werden.
Die kutane Wundheilung hat die funktionelle Wiederherstellung der Gewebeintegrität nach Schädigung zum Ziel. Sie erfolgt im Sinne einer gesteuerten Kaskade von sequentiellen Ereignissen. Diese umfassen die Hämostase, die Inflammation, die Granulation, die Reepithelialisierung und das Remodeling. Die zugrundeliegenden Prozesse werden von einer Vielzahl proinflammatorischer Zytokine und Wachstumsfaktoren reguliert. Neben diesen Proteinmediatoren ist eine Beteiligung löslicher Kleinmoleküle, wie dem Stickstoffmonoxid (NO), für die Regulation der Wundheilung bekannt.
NO ist ein flüchtiges Radikal, welches enzymatisch durch die Isoformen der Stickstoffmonoxidsynthasen (NOS) aus der Aminosäure L-Arginin synthetisiert wird. NO entfaltet ein breites Spektrum physiologischer und pathophysiologischer Effekte. Dabei ist für die induzierbare NOS (iNOS) eine relevante Beteiligung an epithelialen Prozessen hinreichend dokumentiert. FRANK et al. [1998] konnten eine starke Induktion der iNOS während der kutanen Wundheilung sowie einen funktionellen Zusammenhang zu den NO-Wirkungen auf Keratinozyten zeigen, die in Verbindung mit der enzymatischen Funktion der iNOS stehen.
Eine gestörte kutane Wundheilung wurde auch für Mäuse mit Defizienz der endothelialen NOS (eNOS) beschrieben. Die Beteiligung der eNOS an der Wundheilung war bislang jedoch weitgehend unklar. Die vorliegende Arbeit hatte zum Ziel, die Expressionsmuster der eNOS im Wundheilungsverlauf in gesunden und diabetischen Mäusen aufzuzeigen.
In einem kutanen Wundheilungsmodell in Mäusen konnte die Expression von eNOS mRNA und Protein gezeigt werden. Die Expressionskinetik zeigte eine moderate Induktion der eNOS in den frühen Wundheilungsphasen. Diese ließ sich nicht mit einer endothelialen Expressionsänderung erklären, wie es Untersuchungen mit CD31 als pan-endothelialem Marker nahe legten.
Immunhistochemisch konnten Gefäßendothelien des Granulationsgewebes, Keratinozyten der Wundränder, das sich ausbildende Neo-Epithel und Haarfollikel als zusätzliche Quellen der eNOS Proteinexpression in Wunden identifiziert werden. Die eNOS Färbung zeigte sich dabei begrenzt auf die suprabasal gelegenen Keratinozyten der benannten Epithelien. Die Expression der eNOS in Keratinozyten konnte schließlich auch in kultivierten primären humanen Keratinozyten und HaCaT Keratinozyten auf mRNA-Ebene bestätigt werden.
Darüber hinaus zeigte sich ein funktioneller Zusammenhang zwischen eNOS Expression und epithelialer Proliferation: So bildeten eNOS-defiziente Mäuse deutlich reduzierte Wundrandepithelien aus, die durch eine verminderte Proliferation der Keratinozyten charakterisiert waren. Untersuchungen an diabetischen Mäusen (db/db) stützten diesen funktionellen Zusammenhang. In den Expressionskinetiken in diabetischen Tieren zeigte sich eine deutlich reduzierte Expression von eNOS mRNA und Protein vor allem in den späten Wundheilungsphasen.
In der vorliegenden Arbeit werden die zeitliche Expression der eNOS, die Detektion der eNOS in Wunden sowie deren Alteration in diabetischen Mäusen mit Bezug auf ihre funktionelle Bedeutung in der kutanen Wundheilung abschließend diskutiert.
Hintergrund: Geschlechtsunterschiede in der kardialen Repolarisation und der korrigierten QT-Zeit sind seit der Beschreibung von Bazett in den 1920er Jahren bekannt. Gesunde Frauen haben längere QT-Zeiten und werden öfter durch medikamenteninduzierte Arrhythmien betroffen als Männer. Patientinnen, die unter der erblichen Form des Langen QT-Syndroms (LQTS) leiden, weisen ein niedrigeres Risiko für kardiale Ereignisse während der Schwangerschaft auf. Dies ist nach einer Schwangerschaft deutlich erhöht. Weibliche Geschlechtshormone könnten eine wichtige Rolle spielen; ihr Einfluss ist aber noch unklar. Hypothese: Veränderungen von Östrogen, Progesteron und dem Östrogen/Progesteron Quotienten sind mit einer Veränderung der QTc-Zeit assoziiert. Methoden: Diese Studie gliedert sich in einen klinischen und einen experimentellen Teil. Im klinischen Teil wurden die Geschlechtshormone und die QTc-Zeiten von insgesamt 21 Frauen untersucht. Drei LQTS2-Patientinnen (heterozygote Trägerinnen der HERG-Mutante R752P) und zwei Genotyp negativen weiblichen Familienmitgliedern wurden während des Menstruationszyklus gemessen (inklusive Elektrolytbestimmung). Die zweite Gruppe bestand aus elf gesunden Frauen, die während einer hormonalen Stimulationstherapie gemessen wurden. Eine letzte Gruppe bestand aus fünf gesunden Frauen, die vor, während und nach einer Schwangerschaft untersucht wurden. Im experimentellen Teil wurde die Wirkung von Östradiol (E2) auf Zellkulturen, die mit HERG-DNA (Wildtyp oder R752P), Östrogenrezeptor-DNA (ERalpha oder ERbeta) oder beidem transfiziert waren, mittels konfokaler Mikroskopie untersucht. Ergebnisse: Im klinischen Teil der Studie zeigte sich, dass E2 mit steigender Serum-Konzentration (in allen drei Gruppen) die QTc-Zeit verkürzte (p <= 0,001). Dieser Effekt ist als elektrolyt-unabhängig zu werten. Einen signifikanten Effekt von Progesteron oder dem E2/Progesteron Quotienten konnten wir nicht nachweisen. Als zugrunde liegender zellulärer Mechanismus zeigte sich eine ERalpha-abhängige Zunahme von HERG-Kaliumkanälen an der Plasmamembran. Dieser Effekt war bei der Mutante (R752P) nicht nachweisbar und konnte für ERbeta oder ohne ER nicht gezeigt werden. Ob die Zunahme durch vermehrtes "Trafficking", eine vermehrte Transkription oder einen anderen Mechanismus bedingt ist, kann noch nicht abschließend beurteilt werden. Schlussfolgerung: Eine Zunahme der E2-Serumkonzentration führt in Abhängigkeit von ERalpha zu vermehrter HERG-Lokalisation an der äußeren Zellmembran und erklärt so die Verkürzung der QTc-Zeit. Für die Zukunft könnte man erwägen, LQTS-Patientinnen in der Postpartal-Periode mit E2 zu behandeln, um so möglichen kardialen Ereignissen durch tachykarde Rhythmusstörungen vorzubeugen. Weiterhin wäre zu erwägen, Patientinnen mit erworbenem LQTS ebenso zu behandeln.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Die Arbeit „Zwischen Kooperation und Wetteifer – Interaktionen und mediale Organisation von Kreativität am Beispiel des koopetitiven Ideennetzwerks jovoto“ untersucht internetbasierte Kokreativität – die gemeinsame Ideenentwicklung im Mediennetzwerk. Im Unterschied zu vorangegangen Untersuchungen, die sich mit den Motiven für die häufig unentgeltlichen kokreativen Aktivitäten und dem Innovationspotential dieser Organisationsform beschäftigten, liegt der Fokus dieser Studie auf der Kommunikation der Akteure untereinander während der Kokreation. Als Fallbeispiel wird die Design-Ideenplattform jovoto ausgewählt, die Kreativität auf der Basis von Koopetition – der Gleichzeitigkeit von Kooperation und Wettbewerb – unter den Teilnehmern fördert. Die Ideenautoren im Netzwerk von jovoto entwickeln kreative Lösungen in den Bereichen Produktdesign, Kampagnen, Innovation und Architektur. Die Teilnehmer treten mit ihren Ideen im Wettbewerb gegeneinander an; gleichzeitig kommentieren und bewerten sie sich gegenseitig im Prozess der Ideenentwicklung. Aus den Bewertungen der Community ergeben sich die Gewinner des ausgeschriebenen Preisgeldes. Aus dieser Gleichzeitigkeit von Wettbewerb und Kooperation ergibt sich die Forschungsfrage dieser Untersuchung: Wie ist das Verhältnis zwischen Kooperation und Wettbewerb im Kokreationsnetzwerk jovoto bestimmt, und wie wirkt dies auf Kreativität? Um diese Frage zu beantworten, untersuche ich die auf der Plattform dokumentierten Interaktionen (Kommentar-Threads) zwischen den Ideenentwicklern und anderen Community-Mitgliedern mit qualitativen und quantitativen Methoden und analysiere zwanzig von mir geführte halbstrukturierte Leitfaden-Interviews mit den Ideenautoren auf jovoto. Zur theoretischen Einordnung der beobachteten Phänomene stütze ich mich sowohl auf Kultur- und Kommunikationstheorien des radikal-konstruktivistischen Erkenntnismodells als auch auf die kulturellen Spieltheorien von Johan Huizinga und Roger Caillois. Ich beziehe zudem Ansätze ein, die Kokreativität als eine Form der kulturellen Produktivität beschreiben. Einen weiteren Anhaltspunkt bilden Studien, die sich mit der produktiven Beziehung zwischen Kooperation und Wettbewerb auseinandersetzen. Ergänzt werden diese Erkenntnisse bspw. durch die These zur Intelligenz der Crowd in heterogenen Gruppen von Entscheidern und durch Untersuchungen zum positiven Einfluss von Differenzen und Konflikten auf die Gruppenkreativität. Ich führe diese Vorarbeiten zu einer Modellvorstellung zusammen: In dieser verknüpft der koopetitive Handlungskontext ein Kooperationsspiel mit einem Wettbewerbsspiel, und zwar mithilfe von Kreativität: Diese ermöglicht, dass der Fokus im Spiel – von der Betonung und Vergrößerung des Gemeinsamen zwischen den Teilnehmern zur Betonung ihrer Differenzen – wechseln kann. Hieraus leite ich Hypothesen ab, die ich empirisch überprüfe: Während einer sechsmonatigen Beobachtung des Plattformgeschehens habe ich Daten zu 135 Wettbewerben auf jovoto erhoben. Die Analyse von über 2.400 Kommentaren ergibt, dass die beiden Leitkategorien „Bestätigung“ und „Herausforderung“ das kokreative Kommunikationsgeschehen charakterisieren. Hiervon ausgehende qualitative und quantitative Untersuchungen zu 54 Diskussions-Threads ergeben: In der Platzierung erfolgreiche Ideen werden von intensiveren Diskussionen begleitet als weniger erfolgreiche. Bemerkenswert ist, dass sie nicht nur eine größere Zahl bestätigender Kommentare erhalten, sondern auch mehr Herausforderungen. Die im Schnitt höchste Punktzahl geht mit einem Verhältnis von rund acht Bestätigungen je Herausforderung einher. Dieses Ergebnis bestätigt die Ausgangshypothese, dass es sich bei den Ideenwettbewerben um ein Kommunikationsspiel mit kooperativer, wetteifernder und kreativer Komponente handelt: In den Interaktionen zu den Ideenbeiträgen, insbesondere den erfolgreichen, herrscht ein Wechsel zwischen Bestätigungen und Herausforderungen vor. Aus den Aussagen der Ideenautoren in den geführten Interviews wird ein zentraler Konflikt deutlich: Die Tätigkeit bringt einen hohen Aufwand und wenig Aussicht auf Gewinn mit sich. Unterm Strich scheint sie jedoch lohnenswert, da die Akteure wichtige Lernerfahrungen im Netzwerk sammeln können und die eigenen Fähigkeiten einzuschätzen lernen. Dass die kreativen Beiträge anderer Wettbewerbsteilnehmer von anderen rege diskutiert werden, belegt den Erfolg des Organisationsmodells der Kokreation. Dieser verhält sich konträr zu den Vorhersagen herkömmlicher ökonomischer Theorie, die rein eigennützige Akteure annimmt, und deutet auf die Relevanz von Theorien hin, die wechselseitiges Feedback und dessen Gratifikationen als Faktoren in der netzwerkbasierte Produktion zentral berücksichtigen.
Die vorliegende Arbeit untersucht den Übergang von Mitarbeitenden zu Führungskräften. Der Fokus der Arbeit ist nicht die Konzeption der Führungskräfteentwicklung aus der Perspektive der Unternehmen, sondern die Untersuchung der Entstehung und Gestaltung dieses Übergangs durch die Mitarbeitenden innerhalb ihrer beruflichen Rahmenbedingungen. Die Ergebnisse dieser Arbeit zeigen, dass sich in der Gestaltung dieses Übergangs von Mitarbeitenden zur Führungskräften individuelle und organisatorische Aspekte verbinden – bzw. diese durch das Subjekt in eine Verbindung gebracht werden. Durch leitfadengestützte Interviews mit (berufs-) biografischem Schwerpunkt ließen sich die individuellen, wie auch die sozialen und organisatorischen Aspekte der Gestaltung des Übergangs von Mitarbeitenden zur Führungskräften rekonstruieren. Die Stichprobe dieser Arbeit umfasst neun Interviews aus unterschiedlichsten Branchen und beinhaltet sowohl öffentliche als auch privatwirtschaftliche Arbeitgeber. Die dadurch gewonnenen Erkenntnisse ermöglichen Einsichten in die Formen und Bedingungen der Gestaltung dieses Übergangs und können auch eine Grundlage für (organisations-)pädagogische Konzepte zur Unterstützung der Mitarbeitenden bei diesem Übergang bilden.
Ziel dieser Studie ist eine videobasierte Analyse von Aufgaben im Unterricht zur Erklärung von Variationen des Beteiligungsverhaltens der Schüler/innen im Unterrichtsprozess. In der empirischen Unterrichtsforschung kommt dem Beteiligungsverhalten der Schüler/innen im Unterricht die Rolle einer Schlüsselvariable für die Wirksamkeit von Unterrichtsprozessen zu. Obwohl in theoretischen Modellen effektiven Unterrichts sowie in einer Reihe empirischer Untersuchungen die Qualität des Aufgabenangebots im Unterrichtsprozess als ein wichtiger Einflussfaktor für das Beteiligungsverhalten genannt wird, liegen kaum prozess-sensible Analysen zum Zusammenhang zwischen diesen beiden Geschehenskomponenten des Unterrichts vor. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diesen Zusammenhang mittels videobasierter, quantitativ orientierter Verfahren systematischer Beobachtung in den Blick. Dazu wurden in sechs Klassen der 6. Jahrgangsstufe unterschiedlicher Schulformen jeweils vier Unterrichtsstunden des Faches Englisch videographiert. Im Vorfeld wurde mit den Schüler(inne)n (n=145) ein schriftlicher Leistungstest im Unterrichtsfach inklusive Fragen zur Person (Geschlecht und familiärer Sprachhintergrund) durchgeführt, sodass eine Differenzierung der im Unterrichtsprozess untersuchten Effekte nach unterschiedlichen Untergruppen möglich ist. Das Schülerbeteiligungsverhalten, operationalisiert als time on task, wurde mit einem niedrig-inferenten Beobachtungssystem im Intervallkodierungsverfahren erhoben, welches ein zeitlich vollständiges, individualisiertes Verlaufsprofil des Unterrichtsverhaltens aller Schüler/innen in der Klasse erlaubt. Die mittels Ereigniskodierverfahren erfassten Aufgaben wurden mit einem mehrdimensionalen, auf bestehenden Analyseinstrumentarien basierenden Kategoriensystem beschrieben.
In den Ergebnissen zeigt das Geschlecht als einzige Hintergrundvariable der Schüler/innen einen Einfluss auf die individuelle durchschnittliche Verhaltenstendenz im Unterricht. Bezogen auf die Hauptfrage der Studie lassen sich mit Blick in den Unterrichtsverlauf, das heißt auf Ebene der Einzelaufgabe, kaum belastbare Effekte von Variationen der erfassten Aufgabenmerkmale auf das Beteiligungsverhalten der Schüler/innen identifizieren. Bei Betrachtung des Aufgabenangebots auf Stundenebene sind hingegen eine Reihe schwacher bis mittlerer Zusammenhängen zwischen der stundenspezifischen Variabilität der Aufgabenmerkmale und dem durchschnittlichen on task-Niveau in der Klasse feststellbar, wobei sich die meisten dieser Effekte bei Berücksichtung von Untergruppen in der Klasse ausdifferenzieren. Insgesamt ergibt sich aus den vorliegenden Ergebnissen kein eindeutiges Bild zum Zusammenhang zwischen Eigenschaften des Aufgabenangebots im Unterricht und dem Beteiligungsverhalten der Schüler/innen. Die Befunde deuten vielmehr auf die Notwendigkeit zur Fokussierung einzelner Teilaspekte unter Schärfung der Analyseinstrumentarien sowie in Teilen der fokussierten Konstrukte hin. Die vorgelegten Ergebnisse bieten dafür zahlreiche Anschlussstellen und zeigen gleichzeitig Perspektiven zur Weiterentwicklung untersuchungs- bzw. auswertungsmethodischer Vorgehensweisen auf.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Die supratentorielle dekompressive Kraniektomie mit Eröffnung und Erweiterungsplastik der Dura mater ist heutzutage eine wichtige Therapiemaßnahme in der Behandlung des konservativ nicht kontrollierbaren Hirndrucks. Unter Kranioplastik versteht man den chirurgischen Verschluss des entstandenen Knochendefekts zum Schutz des direkt unter der Kopfhaut liegenden Gehirns, zur ästhetischen Wiederherstellung der Konturen sowie zur Verbesserung einer neurologischen Symptomatik („syndrome of the trephined“).
In der vorliegenden Arbeit werden die Daten von insgesamt 242 Patienten, die einer Kranioplastik unterzogen worden waren, retrospektiv analysiert. Die Patienten wurden im Zeitraum 2001-2008 in der neurochirurgischen Abteilung der Städtischen Kliniken Frankfurt am Main-Höchst operiert. Um Aufschluss über das postoperative, funktionelle und kosmetische Ergebnis zu erhalten, wurde im Anschluss an die Aktenauswertung bei diesen Patienten eine telefonische Befragung durchgeführt.
Ziel der Arbeit war es, die bisherigen Erfahrungen der Kalottenplastik und insbesondere der autogenen orthotopen Knochendeckelreimplantation im Hinblick auf die verschiedenen Kranioplastik Zeitpunkte zu untersuchen und unter klinischen Aspekten zu bewerten.
Die Frage des Kranioplastik Zeitpunktes ist essentiell für die Therapieplanung.
Das autologe Schädelknochentransplantat hat bessere Eigenschaften und Qualitäten als alle anderen alloplastischen Materialien. In Anbetracht der perfekten Histokompatibilität, der optimalen biomechanischen Eigenschaften, der guten anatomischen Fusion mit dem umgebenden Knochen und der Möglichkeit der partiellen oder totalen Revitalisation des Transplantats, besteht kein Zweifel, dass der autologe Knochen immer zu verwenden ist, wenn die Möglichkeit dazu besteht.
Die Analyse der Patientengruppen ergab, dass die ultra frühe Kranioplastik der Patienten mit großen Defekten nach dekompressiver Kraniektomie ein besseres Outcome im langfristigen Follow-up hat. Diese Patienten hatten keine gesteigerte Infektions- oder andere Komplikationsraten. Das Timing der Kranioplastik spielt eine Rolle in der Komplikationsrate nur bei den Patienten, die sekundär eine Komplikation erlitten haben. Patienten, die nach der Kraniektomie eine Nachblutung, einen Infarkt oder eine Infektion erlitten haben, hatten eine signifikant höhere Infektionsrate bei ultra früher Kranioplastik. Insbesondere soll betont werden, dass der Trend einer Häufung von Wundheilungsstörungen und Infektionen mit der Folge einer erneuten Explantation des Knochendeckels bei Patienten nach autogener Knochendeckelreimplantation mit mehr als 2 Risikofaktoren und bei Patienten mit kompliziertem Verlauf nach Kraniektomie festgestellt wurde.
Gemäß den Ergebnissen dieser Patientenserie kann die ultra frühe Kranioplastik bei ausgewählten Patienten mittels Reimplantation des Eigenknochens als ein sicheres und hilfreiches Verfahren für die schnellere Rehabilitation und Besserung der neurologischen Funktion und der Prognose bewertet werden. Ähnlich gute Ergebnisse zeigten die Pantienten in der Gruppe 1 der ultra frühen Kranioplastik die aufgrund einer Liquorzirkulationsstörung ein VP Shunt System als kombinierte Therapie in der gleichen Sitzung erhalten haben.
Somit kann zusammenfassend festgehalten werden:
Die Ergebnisse dieser Arbeit bestätigen, dass die Kranioplastik nach einer supratentoriellen dekompressiven Kraniektomie mit Reimplantation des eigenen Schädelknochens zum frühesten möglichen Zeitpunkt ein sicheres und effektives Verfahren darstellt und bei ausgewählten Patienten sogar bessere Ergebnisse als die späte Kranioplastik haben kann. Eine mögliche Erklärung dafür könnte das Auftreten und die Persistenz von neurologischen Defiziten im Rahmen des „syndrome of the trephined“ bei Patienten bieten, bei denen eine späte Kranioplastik durchgeführt wurde. In diesem Patientengut hatten die Patienten mit ultra-früher Kranioplastik das beste neurologische Outcome, die Komplikationsrate war in allen Gruppen vergleichbar.
Um Komplikationen zu vermeiden, sollten Patienten mit einer vorausgegangenen lokalen Infektion spät kranioplastiert werden.
Das neurologische Outcome der Patienten, bei denen ein kombiniertes Verfahren Kranioplastik –VP Shunt durchgeführt wurde, war vergleichbar mit anderen Patientengruppen. Somit ist eine Kranioplastik bei Patienten mit konvexen, über Kalottenniveau prolabierten Kraniektomielappen aufgrund eines Hydrocephalus keine Kontraindikation.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Die vorliegende Arbeit thematisiert den Vergleich der Bildqualität von Liegend-Röntgen-Thorax-Aufnahmen von Patienten auf der Intensivstation des Universitätsklinikums Frankfurt unter Verwendung einerseits eines parallelen und andererseits eines virtuellen Streustrahlenrasters (=Bildverarbeitungssoftware). Es wurde untersucht, ob mit dem virtuellen Raster eine mindestens gleichwertige Bildqualität wie mit dem parallelen Raster erreicht und gleichzeitig Strahlendosis eingespart werden kann.
Insgesamt wurden 378 Röntgen-Thorax-Aufnahmen von 126 Patienten, die jeweils einmal mit parallelem Raster, mit virtuellem Raster und mit dem gleichen virtuellen Raster mit Dosisreduktion durchgeführt wurden, in die Studie eingeschlossen. Das virtuelle Raster ahmt das parallele Raster in der Streustrahlenreduktion nach. Das Übergewicht der Patienten als Einschlusskriterium der Studie rechtfertigte den Einsatz des parallelen Rasters. Jeder Patient wurde nur nach klinischer Indikationsstellung geröntgt, sodass der zeitliche Abstand zwischen zwei Röntgen-Thorax-Aufnahmen unterschiedlicher Aufnahmetechniken desselben Patienten variierte. Für alle Röntgen-Thorax-Aufnahmen wurde derselbe indirekte Flachdetektor verwendet. Die Röhrenspannung betrug konstant 125 kV, das Strom-Zeit-Produkt 1,4 mAs (für das parallele und virtuelle Raster) bzw. 1,0 mAs (für das virtuelle Raster mit Dosisreduktion). Für jeden Röntgen-Thorax wurde das Dosisflächenprodukt bestimmt. Vier Radiologen evaluierten die Bildqualität hinsichtlich sechs Kriterien (Lungenparenchym, Weichteile, thorakale Wirbelsäule, Fremdkörper, Pathologien und Gesamtqualität) anhand einer 9-Punkte-Skala. Der Friedman-Test (p < 0,05: signifikant) wurde angewendet. Die Übereinstimmung der Radiologen wurde über Intraklassenkorrelationskoeffizienten berechnet.
Das virtuelle Raster ohne/mit Dosisreduktion wurde insgesamt von allen vier Radiologen für die Weichteile, die thorakale Wirbelsäule, die Fremdkörper und die Gesamtbildqualität signifikant besser bewertet als das parallele Streustrahlenraster (p ≤ 0,018).
Für das Lungenparenchym und die Pathologien resultierten sowohl signifikante als auch nicht-signifikante Ergebnisse, wobei bei signifikanten Ergebnissen ebenfalls das virtuelle Raster ohne/mit Dosisreduktion besser bewertet wurde als das parallele Streustrahlenraster (p ≤ 0,002). Einzige Ausnahme stellten die Evaluationen der Bildqualität bez. des Lungenparenchyms eines Radiologen dar, der das virtuelle Raster ohne/mit Dosisreduktion signifikant schlechter bewertete als das parallele Raster (p < 0,0001). Insgesamt wurde das virtuelle Raster mit Dosisreduktion für die folgenden Kriterien am besten in absteigender Reihenfolge im Vergleich zum parallelen Raster bewertet: Fremdkörper, thorakale Wirbelsäule, Weichteile, Gesamtbildqualität, Pathologien und Lungenparenchym. Die Übereinstimmung der vier Radiologen in ihren Bildqualitätsbewertungen war maximal gering. Mit dem virtuellen Raster wurde im Durchschnitt etwa 28,7% des Dosisflächenprodukts im Vergleich zum parallelen Streustrahlenraster eingespart (p < 0,0001).
Bisher haben nur vier Studien Streustrahlenreduktionssoftwares an Liegend-Röntgen-Thorax-Aufnahmen untersucht, davon zwei an lebenden Menschen. Limitationen der vorliegenden Studie sind die Subjektivität der Bewertungen der Radiologen, die mögliche Identifizierung der Röntgen-Thorax-Aufnahmen, die mit dem parallelen Streustrahlenraster als gängige Aufnahmetechnik in der Radiologie des Universitätsklinikums Frankfurt durchgeführt wurden, die Konstanz der Expositionsparameter unabhängig des BMI der Patienten und die eingeschränkte Vergleichbarkeit der Röntgen-Thorax-Aufnahmen desselben Patienten aufgrund von Veränderungen der Pathologien, Fremdkörper, etc. bei (großem) zeitlichem Abstand zwischen den Röntgen-Thorax-Aufnahmen.
Das virtuelle Raster erzielte teils eine gleichwertige, teils eine bessere Bildqualität wie/als das parallele Raster bei gleichzeitiger Dosisreduktion von 28,7% und kann es somit bei Liegend-Röntgen-Thorax-Aufnahmen ersetzen. Weitere Studien sollten den Einsatz des virtuellen Rasters bei Röntgenaufnahmen des Thorax (stehend und liegend) und anderer Körperpartien im Hinblick auf die Bildqualität, (höhere) Dosiseinsparungen und den Workflow untersuchen.
Afyonkarahisar ist eine der größeren Städte im westlichen Kleinasien, die auf eine sehr alte wie auch reiche Geschichte zurückblicken kann. Schon im Altertum ist Akroinon (Ακροϊνόν), wie Afyon damals von den Griechen genannt wurde, ein reges kulturelles Zentrum. Diese Stellung hat der Ort sich bis heute bewahrt als Hauptstadt der gleichnamigen türkischen Provinz Afyonkarahisar (Afyonkarahisar İli). Gemeinhin rechnet man deren Territorium dem ägäischen Raum zu. Genau genommen erstreckt es sich jedoch über drei geographische Zonen: Der größte Teil gehört in der Tat der Ägäischen Zone (Ege Bölgesi) an. Der die Distrikte (İlçe) von Başmakçı, Dinar, Dazkırı und Evciler umfassende Südzipfel macht Teil der Mediterranen Zone (Akdeniz Bölgesi) aus während einige Landstriche im Nordosten und Osten bereits zu Inneranatolien (İçanadolu Bölgesi) gehören. ...
Mit immer komplexeren Experimenten erhöhen sich die Anforderungen an die Detektoren und diese Arbeit ist ein neuer Beitrag für eine weiterentwickelte technologische Lösung. In der vorliegenden Dissertation wurde eine nichtinvasive optische Strahldiagnose für intensive Ionenstrahlen in starken Magnetfeldern entwickelt. Das optische System besteht aus miniaturisierten Einplatinen CMOS-Kameras. Sowohl die hardwareseitige Entwicklung als auch die softwareseitige Implementierung der Algorithmen zur Kamerakalibrierung, Netzwerksteuerung und Strahlrekonstruktion wurden in dieser Arbeit entwickelt. Die Leistungsstärke dieses neuartigen Diagnosesystems wurde dann experimentell an einem Teststand demonstriert. Dabei wurde das optische System ins Vakuumstrahlrohr eingebettet. Ein Wasserstoffionenstrahl mit einer Energie von 7keV bis 10keV und einem Strahlstrom bis 1mA wurde in einer Stickstoffatmosphäre bis 1E-5 mbar untersucht. Dabei wurde der Ionenstrahl entlang des Strahlrohres des Toroidsegmentmagnetes mit einer Bogenlänge von 680mm mit einem xy-Kamerasystem beobachtet.
Der Strahlschwerpunkt und die Breite des Strahlprofils wurden im Ortsraum rekonstruiert. Die analytisch berechnete und in anderen Arbeiten simulierte Gyrationsbewegung sowie der RxB-Drift des Strahlschwerpunktes konnte experimentell bestätigt werden.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Einleitung: Die akute Tonsillitis gehört zu den Infektionen der oberen Atemwege und ist eine sehr häufige Erkrankung in einer Kinder- und Jugendarztpraxis. Ziel unserer Untersuchung war es, das virale und bakterielle Erregerspektrum der akuten Tonsillitis, ihre saisonale Verteilung, ihre Altersverteilung, die klinische Symptomatik und den Einfluss einer Rauchexposition zu untersuchen. Gleichzeitig sollte erneut die Sensitivität und Spezifität des angewandten StrepA ST überprüft werden.
Methoden: In drei Kinder- und Jugendarztpraxen im Rhein-Main Gebiet wurden zwischen April 2009 und Mai 2010 insgesamt 1720 Patienten mit akuten Halsschmerzen untersucht. Mit einem Anamnesebogen wurden Alter, klinische Symptomatik und die Rauchexposition erfasst. Bei allen Patienten wurde ein StrepA ST durchgeführt. In einer Praxis (Praxis 1) wurden bei 306 Patienten zusätzlich ein Abstrich für eine bakterielle Kultur und für eine Multiplex PCR auf Viren durchgeführt.
Resultate: In 84% der Fälle tritt die GAS Tonsillitis im Alter zwischen 2 und 12 Jahren auf. Es konnte keine saisonale Häufung der GAS nachgewiesen werden. Mit 64 (42%) StrepA ST positiven Patienten von 152 Raucher-Familien und 74 (37%) von 200 Nichtraucher-Raucher-Familien zeigt sich kein signifikant erhöhtes Risiko an einer GAS Tonsillitis zu erkranken, wenn mindestens ein Elternteil raucht. Bei 306 Rachenabstrichen konnten 145 (47,5%) mal Streptokokken nachgewiesen werden. Davon waren mit 133 vorwiegend GAS (92%). Die anderen Streptokokken der Gruppen C (4,8%), G (2,1%) und B (1,4%) kommen deutlich seltener vor und spielen eine untergeordnete Rolle. Die Sensitivität und Spezifität des StrepA ST war mit 89,9% und 94,1% ausgezeichnet. Bei 306 Tonsillitiden gelang bei 110 Patienten (35,8%) ein Virusnachweis. Wie erwartet fanden sich doppelt so viele Virusnachweise (46%) bei Patienten ohne GAS Nachweis als Ko-Infektionen bei einer GAS (24%). Der Anteil der Entero-/Rhinoviren unter den nachgewiesenen Viren war mit 54% am höchsten. Adenoviren waren mit 15% und Influenza- 9% die nächst häufigen Viren, Para- und Coronaviren bildeten kleinere Gruppen. Während Entero-/Rhinoviren ganzjährig vorkommen sind Influenzaviren eher in der kalten Jahreszeit für akute Tonsillitiden verantwortlich. Die Rolle der Ko-Infektion in der Entstehung und im Verlauf der akuten Tonsillitis muss in weiteren Untersuchungen erforscht werden.
Chronische Herzinsuffizienz ist eine der führenden Todesursachen im Rahmen kardiovaskulärer Erkrankungen und ist mit einer hohen Anzahl an Komorbiditäten assoziiert. Unter anderem führt Herzinsuffizienz zu Veränderungen des Immunsystems, welche denen der Immunoseneszenz ähneln. Als einflussreiche Modulatoren ganzer molekularbiologischer Regelkreise sind microRNAs in den letzten Jahren zunehmend in den Fokus gerückt. Diese nicht-kodierenden, kurzen RNA-Einzelstränge können die Genexpression von vielen Zielgenen durch spezifisches Binden der jeweiligen mRNA Transkripte kontrollieren. Aufgrund zum Teil gewebe-, zelltyp- und prozess-spezifischer Expression können microRNAs auch als mögliche Biomarker für spezifische klinische Fragestellungen dienen.
Im Rahmen der vorliegenden Arbeit wurde die Expression von immunmodulatorischen microRNAs im peripheren Blut (PB) von jungen und gealterten gesunden Probanden (y/h bzw. o/h) sowie Patienten mit chronischer Herzinsuffizienz (CHF) untersucht. Dabei wurde ein Bezug auf Immunoseneszenz bzw. die Auswirkung von CHF auf das Immunsystem hergestellt. Im Rahmen dessen wurden Leukozyten-, insbesondere Lymphozyten-Subpopulationen analysiert.
Hierzu wurden Probanden in die drei folgenden Gruppen eingeschlossen: Patienten mit CHF (n=18, durchschnittliches Alter 64 Jahre), alters-korrelierte gesunde Probanden (n=13, durchschnittliches Alter 64 Jahre) sowie junge gesunde Probanden (n=30, durchschnittliches Alter 25 Jahre). Neben der Erhebung der klinischen Daten wurde peripheres Blut zur Bestimmung der microRNA-Expressionslevels sowie für durchflusszytometrische Analysen der Leukozytenpopulationen gewonnen.
In den Expressionsanalysen konnte eine alters- und herzinsuffizienz-abhängige Dysregulation einzelner microRNAs beobachtet werden. Insbesondere Mitglieder der miR-181-Familie, spezifisch miR-181a und miR-181c, waren im Alter niedriger exprimiert, zudem war die Expression von miR-181c bei Vorliegen einer CHF deutlicher reduziert. Des Weiteren zeigte sich eine altersabhängige erhöhte Expression von miR-34a, wobei das Vorliegen von CHF keine Auswirkung auf die Expression zeigte. Bei den microRNAs miR-146a und miR-223 konnte keine signifikante alters- oder CHF-abhängige Regulation nachgewiesen werden. Lediglich zeigte bei der miR-155 zeigte sich eine signifikante Reduktion bei Vorliegen einer CHF im Vergleich o/h Probanden.
In Hinblick auf die Leukozytenpopulationen im peripheren Blut wiesen Patienten mit CHF höhere Zahlen an Leukozyten auf, alle miR-181 Mitglieder zeigten hierbei eine inverse Korrelation. Dagegen stellte sich in Hinblick auf die Zusammensetzung der Leukozyten-Subpopulationen eine Reduktion der Lymphozytenfraktion im Alter dar, besonders bei Patienten mit CHF. Insbesondere zeigte sich eine altersabhängige Abnahme der B-Lymphozytenpopulation, wobei auch hier das Vorliegen einer CHF diesen Effekt verstärkte. Die Expression miR-181a und miR-181c sowie miR-146a und miR-223 korrelierte positiv mit dem Anteil der B-Lymphozyten. Innerhalb der B-Zellen zeigte sich eine alters- und CHF-abhängige Reduktion der naïven B-Zellen, welche positiv mit der Expression von miR-181c, miR-146a und miR-223 korrelierte. Die beobachteten Veränderungen der B-Zell-Subpopulationen zeigten sich insbesondere bei CHF Patienten mit ischämischer Ursache im Vergleich zur dilatativen Kardiomyopathie.
Bei den untersuchten T-Lymphozyten-Subpopulationen zeigte sich eine altersabhängiger Abfall bei den zytotoxischen T-Zellen. Das Vorliegen einer CHF verstärkte diesen Effekt. Die beobachteten Veränderungen der T-Zell-Subpopulation korrelierten nicht mit der Expression der untersuchten microRNAs.
Im Gegensatz zu den lymphoiden Subpopulationen zeigte sich ein Anstieg der neutrophilen Granulozyten und der Monozyten im Alter, es stellte sich jeweils eine negative Korrelation mit der Expression von miR-181 Transkripten sowie miR-155, miR-146a und miR-223 dar.
Zusammenfassend zeigten sich signifikant erniedrigte Expressionslevels von miR-181c im Alter, was mit Immunoseneszenz-bedingten Veränderungen des peripheren Bluts einherging. Diese Veränderungen zeigten sich zusätzlich verstärkt bei Patienten mit CHF. Zukünftig könnten miR-181c Expressionslevel in peripherem Blut als Biomarker für die Immunfunktionen bei CHF Patienten dienen und in Hinblick auf eine mögliche prospektive Information evaluiert werden.
In der vorliegenden Arbeit wurden zwei motivationale Erklärungsmodelle, Zielorientierungen und das kognitiv-motivationale Prozessmodell, im Rahmen des selbstregulierten Lernens integriert. Selbstregulationsprozesse sind nach Carver und Scheier (1981) zyklisch angelegt. Zu den Bestandteilen der Selbstregulation gehören nach Boekaerts (1999)Regulation der Informationsverarbeitung, Regulation des Lernprozesses und Regulation des Selbsts. Auf dieser Ebene sind die Zielorientierungen angesiedelt. In dieser Arbeit das 2 x 2 Modell von Elliot und McGregor (2001) herangezogen. Es berücksichtigt zwei Dimensionen, die Valenz (Annäherungs- und Vermeidungskomponente) und die Kompetenz (Vergleichsmaßstab intern und extern). Hieraus resultieren: 1) Lern-Annäherungs-Ziele (positive Valenz & interner Vergleich, 2) Lern-Vermeidungs-Ziele (negative Valenz & interner Vergleich), 3) Leistungs-Annäherungs-Ziele (positive Valenz & externer Vergleich) und 4) Leistungs-Vermeidungs-Ziele (negative Valenz & externer Vergleich). Diese vier Zielorientierungen sind der erste Teil des integrierten Modells, der zweite zentrale Teil ist das kognitiv-motivationale Prozessmodell (Vollmeyer & Rheinberg, 1999, 2006). Ausgangspunkt ist die aktuelle Motivation, die aus 1) der Erfolgswahrscheinlichkeit, 2) der Misserfolgsbefürchtung, 3) dem Interesse und 4) der Herausforderung als unabhängige Faktoren besteht. Diese aktuelle Motivation wirkt nicht direkt auf die Leistung, sondern durch kognitive (hier: Metakognition) und motivationale (hier: Flow-Erleben) Mediatoren. Es wurden drei Fragestellungen bearbeitet. Die erste Fragestellung betraf das Zusammenspiel der Zielorientierungen und der aktuellen Motivation. Eine Überprüfung dieses integrierten Motivationsmodell erfolgte mittels Pfadanalyse. Die zweite und dritte Fragestellung befasste sich spezifisch mit dem kognitiv-motivationalen Prozessmodell. Es wurden Subgruppen auf der Basis der aktuellen Motivation identifiziert und ihre Bedeutung für die Mediatoren und die Leistung untersucht. Die dritte Fragestellung fokussierte den Prozesscharakter des Modells. Hier erfolgten Analysen über den Arbeitsprozess hinweg. Die Fragebögen (Achievement Goal Questionnaire (Elliot & McGregor, 2001), Metakognitionsfragebogen (aufbauend auf LIST (Wild, 2000) und Metacognitive Awareness Inventory (Schraw & Dennison, 1994), Fragebogen zur aktuellen Motivation (Rheinberg, Vollmeyer & Burns, 2001), Flow-Kurz-Skala (Rheinberg, Vollmeyer & Engeser, 2003)) und die Problemlöseaufgaben (Sudokus) wurden in einer Pilotstudie getestet. An der Hauptstudie nahmen 202 Personen teil (73% weiblich). Das integrierte Motivationsmodell geht davon aus, dass eine positiver Effekt der Zielorientierungen als Personenvariable auf die aktuelle Motivation besteht. Die aktuelle Motivation als Startpunkt des situationalen Geschehens wiederum wirkt positiv auf die Mediatoren Flow-Erleben und Metakognition, hat aber keinen direkten Effekt auf die Leistung. Dieser wird nämlich über die Mediatoren vermittelt. Deswegen wird ein positiver Effekt des Flow-Erlebens und der Metakognition auf die Leistung erwartet. Das Zusammenwirken der beiden Mediatoren kann aus dem kognitiv-motivationalen Prozessmodell nicht abgeleitet werden. Ob ein Zusammenhang besteht oder nicht wird geprüft. Für das Vorwissen wird ein positiver Effekt auf die aktuelle Motivation und die Leistung erwartet. Die Pfadanalyse zur Überprüfung des integrierten Motivationsmodells zeigte, dass eine Integration nicht nur theoretisch sinnvoll ist, sondern auch empirisch gestützt wird. Die Bedeutung der Metakognition als kognitiver Mediator wurde gezeigt. Die zweite Fragestellung fokussierte auf die aktuelle Motivation. Auf der Basis dieser wurden mittels Clusteranalyse drei distinkte Gruppen identifiziert: hoch Motivierte, niedrig Motivierte und ängstlich Motivierte (vergleichbar zu Vollmeyer & Rheinberg, 2004). Diese Gruppen unterschieden sich hinsichtlich ihres Flow-Erlebens, ihrer Metakognition und ihrer Leistung. Die hoch Motivierten erlebten am meisten Flow, berichteten mehr Metakognition und zeigten bessere Leistung. Der Prozesscharakter des kognitiv-motivationalen Prozessmodells stand im Mittelpunkt der dritten Fragestellung. Diese Analyse über die drei Sudokus hinweg zeigte eine ähnliche Entwicklung des Flow-Erlebens bei den hoch und niedrig Motivierten. Vom ersten zum zweiten Sudoku stieg es an, um dann wieder abzufallen. Dies war bei der Metakognition nicht der Fall. Die hoch Motivierten berichteten einen stärkeren Rückgang der Metakognition beim dritten Sudoku als die niedrig Motivierten. Bei der Leistung zeigte sich für die hoch Motivierten ein Anstieg beim zweiten Sudoku und dann ein Rückgang beim dritten, wohingegen die Leistung der niedrig Motivierten kontinuierlich abfiel. Abschließend wurden die Schwierigkeiten und Grenzen der vorliegenden Arbeit diskutiert und Implikationen der Ergebnisse für die Theorieentwicklung und ihre Bedeutung für den Anwendungskontext aufgezeigt.
Das Buch nimmt die Beobachtung zum Ausgangspunkt, dass wahrnehmende Lebewesen immer auch sich bewegende Lebewesen sind. Der Zusammenhang zwischen den Vermögen der Wahrnehmung und der Selbstbewegung wird hier als ein konstitutiver gefasst, der insofern Auswirkungen für das Verständnis und die philosophische Analyse des jeweiligen Vermögens hat. Im Fokus steht das wechselseitige Verhältnis zwischen Wahrnehmung und Handeln beim Menschen und damit auch die Frage, in welcher Beziehung das begriffliche Denken zu den genannten Vermögen steht. Die Arbeit diskutiert Schriften von Wittgenstein, Anscombe, Merleau-Ponty, Dreyfus, McDowell, sowie neuere Beiträge aus der enaktivistischen und phänomenologischen Tradition.
Im ersten Kapitel wird der Zusammenhang zwischen Wahrnehmung und Handlung in der Erkenntnistheorie untersucht. Hier stehen enaktivistische Theorien, die auf den grundsätzlichen Handlungscharakter der Wahrnehmung verweisen, im Mittelpunkt. Anhand einer Kritik der Kamerametaphorik des menschlichen Blicks wird dafür argumentiert, dass die (visuelle) Wahrnehmung als aktiver Prozess verstanden werden muss. Das Sehen ist weder punktförmig noch bildhaft aufzufassen, vielmehr ist es eine stets prekäre Errungenschaft eines leiblichen Wesens im Austausch mit der es umgebenden Welt. Die Ergebnisse aus dem ersten Kapitel werden im zweiten Kapitel mit Ludwig Wittgensteins Überlegungen zum Aspektsehen in Kontakt gebracht. Wittgensteins Bemerkungen zum Sehen und Aspektsehen lassen sich als Anstoß zu einem pluralistischen Verständnis der Wahrnehmung verstehen. In Anbetracht der vielfältigen Diskussionen, für die Wittgensteins Bemerkungen über das Aspektsehen relevant sind, wird hier herausgearbeitet, inwieweit sie als eine Kritik an jeder Form des Gegebenseins in der Wahrnehmung verstanden werden können. Eine Diskussion des ebenso ungewöhnlichen wie wenig beachteten Beitrags Anscombes zur Theorie der Wahrnehmung, den sie hauptsächlich in »The Intentionality of Sensation« ausarbeitet, beschließt das zweite Kapitel.
Im dritten Kapitel geht es um den zweiten Teil der These, Wahrnehmung und Handeln seien wechselseitig voneinander abhängig. In diesem Kapitel geht es um Theorien, für die die Wahrnehmung nicht einfach Informationen über die Umwelt bereitstellt, sondern selbst Bestandteil des Handelns ist. Eine besondere Herausforderung besteht darin, die Rolle der Wahrnehmung sowohl für das geistesabwesende Tun als auch für das überlegte Handeln und auch für mentale Handlungen, wie etwa Entscheidungen, zu bestimmen. Besonders offensichtlich wird die Rolle der Wahrnehmung im Handeln immer dort, wo das Überlegen zurücktritt und das gekonnte Handeln auf die Wahrnehmung von Gelegenheiten angewiesen ist – also insbesondere dort, wo das Handeln Ausdruck spezialisierter Fähigkeiten ist.
Der Wahrnehmungsbegriff, der in der Arbeit im Mittelpunkt steht, ist gerade kein allgemeiner oder übergreifenden – und erst recht kein »zugrundliegender« Begriff der Wahrnehmung. Vielmehr soll Wahrnehmung plural verstanden werden: die Wahrnehmung im Alltag, die beobachtenden Wahrnehmung, die Wahrnehmung des Profis, die begriffliche Wahrnehmung. Diese Herangehensweise läuft zwangsläufig auch auf die Frage hinaus, inwiefern sich die menschliche Wahrnehmung und die Wahrnehmung der Tiere unterscheiden. Zwar gilt für Tiere wie für Menschen, dass sie wahrnehmen und sich bewegen – aber bestimmte Formen der Wahrnehmung sind klarerweise dem Menschen vorbehalten, etwa die ästhetische, die moralische und die begriffliche Wahrnehmung. Das vierte Kapitel diskutiert – ausgehend von der Frage nach der Begrifflichkeit der menschlichen Vermögen des Wahrnehmens und Handelns –, in welchem Verhältnis diese zu denen der Tiere stehen.
Ein auffälliger Unterschied zwischen den Vermögen des Menschen und denen der Tiere – so wird sich herausstellen – ist die Flexibilität und Pluralität der menschlichen Vermögen. Doch diese Pluralität ist kein natürliches Faktum, sondern Produkt bestimmter Tätigkeiten und Praktiken. Erst im tätigen Umgang mit der Welt, durch den Erwerb bestimmter Techniken und innerhalb bestimmter Praktiken verwirklicht sich die grundsätzliche Offenheit der menschlichen Vermögen. Diese Idee, dass unsere natürlichen Vermögen in Kontakt und Auseinandersetzung mit unserer Lebenswelt sich allererst entwickeln, ist Gegenstand des fünften Kapitels.
Die konstitutiven Beziehungen zwischen Wahrnehmung und Handeln in den Mittelpunkt dieser Untersuchung zu rücken, ist dabei Ausdruck eines bestimmten Philosophieverständnisses, nämlich eines, das das wahrnehmende, denkende und handelnde Lebewesen in den Fokus seiner Untersuchung stellt – nicht das einzelne Vermögen, sondern der ganze Organismus sind der point of interest.
Das positions-spezifisch integrierende TRE5-A Retrotransposon besitzt zwei Promotorregionen (A- und C-Modul). Für das C-Modul konnte ein spezifisch bindendes Protein (CbfA) gefunden werden, das vermutlich über die Expression des Minusstrang-Transkripts regulativ in den Transpositionsmechanismus eingreift. Gleichzeitig stellt CbfA in D. discoideum einen kritischen Faktor dar, der sowohl auf das Wachstum als auch auf die Differenzierung Einfluss nimmt.
Es konnte gezeigt werden:
• Der AT-Haken in CbfA ist für die DNA-Bindung essentiell. Die Inaktivierung hat zur Folge, dass keine Differenzierung stattfindet. Es scheint, dass primär der AT-Haken für die DNA-Bindung sorgt und von den Zinkfingern unterstützt wird.
• Die JmjC-Domäne in CbfA ist essentiell. Transformanden mit CbfA ohne aktive JmjC-Domäne zeigen Defekte sowohl in Wachstum als auch Differenzierung.
• CbfA ist ein nukleares Protein. Es konnte zwar keine Kernlokalisationssequenz identifiziert werden, jedoch weisen die Versuche auf zumindest eine Kernlokalisierungssequenz im C-Terminus des cbfA hin.
• Ein C-terminal verkürztes CbfA ist funktionslos: wahrscheinlich aufgrund fehlender Kernlokalisation und somit fehlender DNA-Bindung.
• Ein N-terminal verkürztes CbfA ist teilweise funktionsfähig: die Komplementation in JH.D2-Zellen führt zu einer partiellen Revertierung hin zum Phänotyp der AX2-Zellen.
• Struktur-Homologien der JmjC-Domäne in CbfA zu Mitgliedern aus der Familie der Fe(II)/2OG-Oxygenasen, DNA-bindende Motive und die Lokalisation im Zellkern weisen auf eine Funktion des CbfAs als Chromatin-Remodeller im Zellkern hin.
• In der Transit von Wachstums- zu Entwicklungsphase kann der CbfA-Mangel durch artifizielle Proteinase A-Expression ausgeglichen werden, aber nicht durch Komplementation mit YakA, Adenylat-Zyklase oder cAMP Rezeptor 1.
• CbfA fungiert wahrscheinlich als Regulator der acaA-Transkription auf Ebene der chromosomalen Strukturen.
• cbfB, ein weiteres Gen mit einer JmjC-Domäne wurde in D. discoideum identifiziert, die Gensequenz vervollständigt und vom Dictyostelium Genom-Projekt verifiziert.
Die humane 5-LO ist das Schlüsselenzym in der LT-Biosynthese. LTs sind wichtige Entzündungsmediatoren und sind in einer Vielzahl von Krankheiten involviert, u. a. Asthma, Atherosklerose, rheumatische Arthritis, Sepsis, allergischen Reaktionen und in vielen Krebsarten. Die Struktur der 5-LO besteht aus 673 Aminosäuren und besitzt ein Molekulargewicht von 78 kDa. Sie ist in zwei Domänen unterteilt: die kleinere C2-ähnliche regulatorische Domäne (C2ld) und der größeren katalytischen Domäne. Die 5-LO besitzt NIS und NES, die für die zelluläre Lokalisation der 5-LO verantwortlich sind. Außerdem wird die Lokalisation noch von Phosphorylierungsstellen reguliert, die auf der katalytischen Domäne identifiziert werden konnten. 2011 konnten Häfner et al. zeigen, dass die 5-LO in der Lage ist Homodimere zu bilden.
Wie für die meisten anderen humanen Gene konnten auch bei der 5-LO alternative Spleißvarianten identifiziert werden. Schon 1992 konnten die ersten unterschiedlich gesüleißten Transkripte in Hirntumoren und differenzierten HL-60-Zellen gefunden werden. Später konnten weitere Isoformen in verschiedenen Zelllinien entdeckt werden.
In der vorliegenden Arbeit wurden die alternativen Spleißvarianten 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht und charakterisiert. Auf mRNA-Ebene wurde die Expression des 5-LO-WT und deren Isoformen sowohl in B- und T-Zelllinien als auch primären B- und T-Zellen, monozytären Zelllinien und primäre Monozyten aus Patientenproben (RA und Sepsis) untersucht. Es wurde festgestellt, dass das Expressionsprofil der 5-LO-Varianten zellspezifisch ist. Im Vergleich zu den T-Zellen konnte in B-Zelllinien ein höheres Expressionslevel detektiert werden. Des Weiteren zeigte sich interessanterweise ein stark erhöhtes Expressionslevel in primären Monozyten von RA- und Sepsis-Patienten.
Untersuchungen der 5-LO-Aktivität ergaben unterschiedliche Ergebnisse, abhängig von der Transfektionsmethode. Als transiente Transfektion diente die Calciumphosphat-Methode. Für die stabile Integration der HEK293T-Zellen wurde die Sleeping Beauty-Methode gewählt. Hierfür wurden Proteine mit einem GFP bzw. mCherry-Tag (GFP-5-LO-WT, mCherry∆13, mCherry∆4, mCherryp12) verwendet, um diese mittels Konfokalmikroskop visualisieren zu können. Nach transienter Transfektion konnte eine Inhibition der 5-LO-Aktivität nach Kotransfektion mit jeweils einer Isoform gemessen werden. Nach stabiler Integration jedoch zeigte sich eine Steigerung der 5-LO-Produktbildung. Mit Hilfe von Western Blots wurden Expressionskontrollen angefertigt und die Menge des 5-LO-WT quantifiziert. In transient transfizierten Zellen wurde eine Erniedrigung der Expression des 5-LO-WT bestimmt, wohingegen in stabil integrierten Zellen ein Anstieg des 5-LO-WT als auch der Isoformen beobachtet werden konnte. Einerseits könnte dies einem Artefakt der Transfektionmethode zugrunde liegen, andererseits könnte es ein Hinweis darauf sein, dass sich die Proteine gegenseitig in ihrer Expression beeinflussen.
Ebenso wurde die Lokalisation der 5-LO und deren Isoformen untersucht. Es konnte gezeigt werden, dass die 5-LO überwiegend im Zellkern lokalisiert ist, während alle alternativen Protein-Isoformen im Zytosol zu finden waren. Durch Ionophor-Behandlung wurde eine Translokation des 5-LO-WT an die Kernmembran detektiert, die Isoformen verblieben im Zytosol. Überraschenderweise konnte beobachtet werden, dass die Spleißvariante 5-LO∆13 mit höherer Ionophor-Konzentration ebenso in der Lage ist an die Kernmembran zu translozieren. Um eine mögliche Interaktion der 5-LO mit den Isoformen zu untersuchen, sollten alle Proteine im selben Zellkompartiment lokalisiert sein. Dafür wurden verschiedene Stimuli und Mutationen getestet. Mit der Mutante GFP-5-LO-S271A und dem Stressstimulus Sorbitol und den CaMKII/p38-Inhibotoren KN-93/SB203580 konnte eine Translokation in das Zytosol erreicht werden. Die Ergebnisse der anschließenden Aktivitätsassays zeigten, dass die Isoformen keinen Einfluss auf die Aktivität der 5-LO ausüben.
Des Weiteren wurden die Phosphorylierungen an S523 und S271 von 5-LO-WT, 5-LO∆13, 5-LO∆4 und 5-LOp12 untersucht. Es wurde herausgefunden, dass die 5-LO-Proteine unterschiedliche Phosphorylierungsmuster aufweisen. Während 5-LO-WT und 5-LO∆4 eine schwache Phosphorylierung an S271 aufzeigen, konnte eine starke Phosphorylierung der 5-LO∆13 und 5-LOp12 detektiert werden. Im Vergleich dazu zeigte lediglich die Isoform 5-LOp12 eine sehr starke Bande an der Phosphorylierungsstelle S523. Bei beiden Phosphorylierungen konnten deutlich stärkere Signale nach Kotransfektion gemessen werden. Durch Klonierung eines P2A-Linkers zwischen 5-LO und des GFP-Tags, konnten die Isoformen vom 5-LO-WT in Western Blots voneinander getrennt werden. Dies zeigte, dass es zu einer Hochregulation der Expression der alternativen 5-LO-Varianten nach Kotransfektion mit dem WT führte, aber auch, dass die stärkere Phosphorylierung nach Kotransfektion unabhängig von der Proteinmenge ist.
Thema der Dissertation ist der signifikante pathognomische Ausdruck, also die Mimik von Figuren, die in den Jahren um 1600 ein großes Thema in der bildenden Kunst, den kunsttheoretischen Traktaten und der Kirche im Zuge der Gegenreformation war. In der künstlerischen Darstellung dieser Jahre lag ein besonderes Gewicht auf einer an rhetorischen Modellen angelehnten Ausdrucks- und Gebärdensprache der Figuren.
Mit der Mimik, deren Darstellung eine enorme Bandbreite entwickelt, wurde zunehmend gespielt und gezielt manipuliert. Und zwar von Seiten der Kunst wie auch der Kirche. Die Arbeit untersucht sowohl die äußeren Umstände unter denen sich eine zunehmende Schematisierung der Gesichtsausdrücke der Figuren entwickelte und die als Formelhaftigkeit zu beschreiben ist, als auch, wie diese von Seiten der Künstler gehandhabt wurde. Erstaunlich war die Feststellung, dass diese „mimischen Formeln“, die man - besonders durch ihr häufiges Auftreten- mit einem bestimmten Kontext verband, nun immer wieder in ganz anderen Zusammenhängen auftauchten und somit einer Figur oder Geschichte einen neuen Sinn gaben. Oft übertrafen sie gar den gesamten übrigen ikonografischen Apparat an Aussagekraft.
Resorbierbare Osteosynthesen haben zwar schon vor längerer Zeit Einzug in die Dysgnathiechirurgie gehalten, müssen aber immer noch dem Vorwurf der Instabilität standhalten. Die vorgelegte Arbeit vergleicht ein modernes resorbierbares Osteosynthesesystem (INION CPS) mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Insgesamt wurden die 50 Patienten der Studiengruppe neu untersucht, die Patienten der Kontrollgruppe mit Titanminiplatten rekrutierten sich aus einem bereits veröffentlichten Kollektiv des Autors. Die Beurteilung der Stabilität erfolgte radiologisch anhand von Fernröntgen-Seiten-Aufnahmen durch einen Vergleich von präoperativen Aufnahmen zu postoperativen und Verlaufsaufnahmen. Die zwei Hauptgruppen wurden dann zum einen nach Verlagerungsrichtung unterteilt als auch nach Art des Eingriffs (Monomaxillär vs. Bimaxillär). Zusätzlich wurden getrennt von diesen Gruppen noch Patienten mit Lippen-Kiefer-Gaumenspalte untersucht. Diese Studie konnte zeigen, dass die Stabilität von den untersuchten resorbierbaren Platten im Besonderen von der Richtung der Verlagerung abhängt. In einigen Verlagerungsrichtungen (Impaktion, horizontale Bewegung im Oberkiefer, Unterkiefervorverlagerung) sind die resorbierbaren Systeme gleichwertig, in anderen (Elongation, Unterkieferrückverlagerung) schneiden sie schlechter ab. Keinen Unterschied gibt es hingegen beim Vergleich der Art der Verlagerungen. Bei Risikopatienten die Vertikalbewegungen benötigen sollte allerdings zu Gunsten der Sicherheit lediglich mit Titanosteosynthesen versorgt werden. Eine Reihe von Studien konnte jedoch zeigen, dass gerade die neuesten resorbierbaren Materialien in ihren Eigenschaften kaum hinter denen der Titanplatten zurückstehen. Allerdings trägt auch weiterhin der höhere Preis der resorbierbaren Osteosynthesen zu deren zurückhaltendem Einsatz bei. Hier ist fraglich ob sich daran mittelfristig etwas ändern wird. Im Rahmen der Fragebogenuntersuchung zeigte sich, das heute mehr denn je mit dem Patienten offen über die Veränderung die diese Eingriffe mit sich bringen gesprochen werden sollte um übersteigerte oder falsche Hoffnungen abzubauen und dem Patienten das Gefühl der Entscheidungsfreiheit und Gleichberechtigung zu geben. Unstrittig ist die Frage nach der Notwendigkeit dieser Operationen. In welchem Umfang und mit welchem Budget die modernen Verfahren wie das MRT zur Basisdiagnostik und die virtuelle Planung als Ersatz für die konventionellen Röntgenbilder Einzug halten werden bleibt abzuwarten.
Osteosynthesematerialien aus resorbierbaren Materialien finden aufgrund ihrer zunehmenden biomechanischen Stabilität eine immer höhere Akzeptanz. Die vorgelegte Untersuchung vergleicht die knöcherne und okklusale Stabilität von solchen Osteosynthesesystemen aus resorbierbaren Materialien im Vergleich mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Untersucht wurden 100 Patienten in einem Nachsorgezeitraum von bis zu 4 Jahren. Die Beurteilung erfolgte klinisch und röntgenologisch anhand von Fernröntgen-Seiten-Aufnahmen. In die Studie gingen ein fünfzig Patienten, die mit resorbierbaren Platten versorgt worden waren, 16 davon mit Polylactid-Polyglycolid Copolymer Platten und 34 Patienten mit 70:30 Poly-L/DL-Lactid Copolymer Platten; fünfzig weitere Patienten, versorgt mit einem Titanminiplattensystem wurden als Kontrollgruppe gewertet. Zunächst konnte gezeigt werden, dass die Gruppen zueinander homogen waren, es unterschieden sich die effektiven intraoperativen Bewegungen von Studien und Kontrollgruppe statistisch nicht signifikant, gleiches galt im Vergleich der resorbierbaren Platten untereinander. Bei der Datenauswertung konnte nachgewiesen werden, dass die absolute und relative Instabilität weder zwischen den Studiengruppen noch der Kontrollgruppe noch zwischen den resorbierbaren Plattensystemen untereinander signifikant unterschiedlich war. Die postoperative 1-Jahres Stabilität unterschied sich dabei ebenfalls nicht signifikant von der 4-Jahres Stabilität. Alle untersuchten Osteosynthesesysteme zeigten im Oberkiefer eine höhere Stabilität als im Unterkiefer und gleichzeitig eine größere Stabilität in der anterior-posterioren Richtung als in der inferior-superioren Richtung. Es wurden keine signifikanten Unterschiede zwischen der klinischen Stabilität von PLGA oder P(L/DL)LA-Miniplatten gefunden. Allerdings konnte auch belegt werden, dass der Einsatz resorbierbarer Unterkieferosteosynthesen eine sehr gute Compliance des Patienten bezüglich geführter Okklusion und Nachsorge voraussetzte. Als nachteilig bei den resorbierbaren Systemen konnte sowohl für den Oberkiefer als auch für den Unterkiefer eine leicht erhöhte Mobilität bis zu 6 Wochen nach der Operation festgestellt werden, die jedoch in keinem Fall das operative Ergebnis beeinflusste. Vielmehr ermöglichten resorbierbare Osteosynthesen eine bessere postoperative okklusale Einstellung. Weiteren Nachteil der resorbierbaren Osteosynthesesysteme bedeuten die hohen Kosten, die heute noch weit über denen von Titanminiplatten liegen. Zukünftige Entwicklungen gehen dahin, das Plattendesign weiter zu optimieren, wie z.B. neuartige pinbasierte Fixationssysteme einzusetzen, wie sie in der Extremitätenchirurgie teils bereits benutzt werden. Fernziel für die Zukunft ist die Entwicklung eines resorbierbaren Osteosynthesesystems, das sich bei geringen Herstellungskosten und miniaturisiertem Plattendesign auch minimalinvasiv einbringen lässt.
Der Natrium-abhängige Kaliumkanal Slack (KNa1.1, Slo2.2, KCNT1) nimmt eine Schlüsselrolle in der Regulation neuronaler Erregbarkeit ein, indem er die Ausbildung und Feuerungsfrequenz von Aktionspotentialen kontrolliert. Sowohl in Mäusen als auch in Menschen wird Slack besonders hoch in nicht-peptidergen C-Faser-Neuronen exprimiert. Wissenschaftliche Erkenntnisse der letzten Jahre konnten die Beteiligung von Slack-Kanälen in der Signalverarbeitung neuropathischer Schmerzen, aber auch in verschiedenen Arten von Pruritus, feststellen. Dabei zeigen Slack-defiziente Mäuse ein verstärktes mechanisches Schmerzverhalten nach einer peripheren Nervenverletzung und ein erhöhtes Kratzverhalten in akuten Juckreiz-Modellen. Das als Slack-Aktivator identifizierte trizyklische Neuroleptikum Loxapin zeigt sowohl analgetische als auch antipruritische Effekte in Mäusen, jedoch ist sein klinischer Einsatz auf Grund schwerwiegender antipsychotischer Nebenwirkungen limitiert. Basierend auf Loxapins Leitstruktur wurden daher in dieser Arbeit neue Slack-Aktivatoren mit einem verbesserten pharmakologischen Profil designed und ihr Potential für die Therapie von Schmerzen sowie akutem und chronischem Pruritus in vivo untersucht.
Seit mehr als 200 Jahren gibt es durch die Wissenschaftler der Wetterstation auf dem Hohenpeißenberg systematische Wetterbeobachtungen, doch erst seit wenigen Jahren gibt es unter den Klimaforschern einen Konsens, dass sich das Klima durch anthropogene Einflüsse schon verändert hat – und weiter verändern wird. Die bisherigen Auswirkungen, wie zum Beispiel ein globaler Temperaturanstieg von 0,85°C seit Beginn der Industrialisierung, sind heute gut belegbar. Mögliche zukünftige Entwicklungen des Klimas werden heute ebenso erforscht wie die Auswirkungen des Klimawandels auf Mensch und Umwelt. Zu diesen Auswirkungen gehören unter anderem Folgen für die Landwirtschaft. Durch veränderte Niederschläge und den Temperaturanstieg werden sich die Lebensbedingungen von Bodenorganismen und Anbaubedingungen für Pflanzen ändern. Letztendlich ist aufgrund dieser Veränderungen auch ein verstärkter Einsatz von Pestiziden zu erwarten. Allerdings wurde bisher kaum untersucht, ob der Einsatz von Pestiziden in der Landwirtschaft unter den Bedingungen des Klimawandels (konkret durch die Interaktion von klimatischen und chemischen Faktoren) ein erhöhtes Umweltrisiko für Bodenorganismen darstellt. Bisher werden klimatische Faktoren bei den Tests für die Zulassung von Pestiziden nicht berücksichtigt.
Daher wurde diese Fragestellung in der hier vorliegenden Dissertation am Beispiel der Effekte von zwei zugelassenen Pestiziden auf Bodenorganismen unter verschiedenen klimatischen Bedingungen untersucht. Konkret wurden dazu mit Labor- und Halbfreilandversuchen die Wirkung eines Insektizids und eines Fungizids in Interaktion von Temperatur und Bodenfeuchte auf Vertreter zweier Invertebratengruppen (Collembola: zwei Arten; Enchytraeidae: eine Art) untersucht.
In einem modifizierten Standardtest mit Collembolen erhöhte sich die Toxizität des Insektizids Lambda-Cyhalothrin, wenn die Exposition der beiden Arten bei einer erhöhten Bodenfeuchte stattfindet. Die kühl adaptierte Art Folsomia candida reagierte bei erhöhter Testtemperatur am empfindlichsten auf diese Testsubstanz: Die EC50 aus diesem Experiment lag bei 2,84 mg (a.s.)/kg Boden Trockengewicht (dw). Unter Standardbedingungen, wie sie in Tests für die Zulassung von Pestiziden angewandt werden, lag die EC50 von F. candida dagegen bei 8,65 mg a.s./kg dw.
Unter den gleichen Versuchsbedingungen wurde auch das Fungizid Pyrimethanil an Collembolen getestet. Hier erwies sich die Testsubstanz für beide Arten bei
gleichzeitigem Trockenstress und / oder erhöhter Temperatur als toxischer im Vergleich zu den Standard-Testbedingungen. Dabei zeigte F. candida mit einer EC50 von 28,3 mg a.s./kg dw die höchste Empfindlichkeit. Ohne die veränderten klimatischen Faktoren, betrug die EC50 von F. candida 52,3 mg a.s./kg dw.
In Reproduktionstests mit der Enchytraeen-Art Enchytraeus bigeminus wurde die Bodenfeuchte als klimatischer Faktor in Kombination mit jeweils einer Testsubstanz untersucht. Bei beiden Chemikalien reagierte E. bigeminus in trockenem Boden empfindlicher. Die ermittelten EC50 betrugen 1,34 mg a.s./kg dw für Lambda-Cyhalothrin und 437 mg a.s./kg dw für Pyrimethanil. Getestet unter Standardbedingungen lagen die EC50-Werte bei 3,79 bzw. 499 mg a.s./kg dw.
Neben den Laborexperimenten wurden Tests in „Terrestrischen Modellökosystemen“ (TME) mit den gleichen Chemikalien in Kombination mit variierender Bodenfeuchte als klimatischer Faktor vorgenommen. Diese Experimente wurden in Deutschland und in Portugal durchgeführt, um die Reaktion einer zentraleuropäischen und einer mediterranen Artengemeinschaft zu untersuchen. Aus der terrestrischen Lebensgemeinschaft wurden verschiedene Organismengruppen untersucht. Die Effekte auf Enchytraeen aus dem Experiment mit Pyrimethanil waren als Veröffentlichung Teil dieser Dissertation. In der portugiesischen Halbfreilandstudie wurden keine Effekte auf die Enchytraeen durch Pyrimethanil bei umweltrelevanten Konzentrationen festgestellt, jedoch beeinflusste die Bodenfeuchte die Zusammensetzung der Artengemeinschaft. Im deutschen TME-Experiment wurde eine verstärkte Wirkung des Fungizids in trockenem Boden festgestellt, d.h. die jeweiligen Effektkonzentrationen (niedrigste EC50 3,48 mg a.s./kg dw für Fridericia connata in trockenem Boden) lagen deutlich unterhalb der aus den Labortests mit Enchytraeus bigeminus bekannten Werten (499 mg a.s./kg dw).
Zusammenfassend lässt sich feststellen, dass klimatische Faktoren die Effekte von Pflanzenschutzmittel auf Bodenorganismen beeinflussen können. Für Laborversuche ist eine generelle Berücksichtigung von klimatischen Faktoren im Zulassungsverfahren aus heutiger Sicht zu weit gegriffen. Die TME-Versuche zeigten sich als geeignetes Testverfahren, interaktive Effekte von Pestiziden und Klima bzw. multiplen Stressoren generell auf Artengemeinschaften zu untersuchen. Für TME-Experimente wäre unter Beachtung der Vielzahl möglicher Fragestellungen, Endpunkte und moderner statistischer Auswerteverfahren eine internationale Richtlinie wünschenswert.
Die Extrakorporale Membranoxygenierung (ECMO) ist ein extrakorporales Organersatzverfahren, welches heutzutage insbesondere als Lungenersatzverfahren oder als kreislaufunterstützendes Verfahren zum Einsatz kommt. Seit dem ersten Einsatz 1971 im Rahmen eines posttraumatischen „Acute Respiratory Distress Syndrom“ (ARDS) ist die Zahl der ECMO-Behandlungen im kardiopulmonalen Bereich massiv gestiegen. Dennoch wird der Nutzen der ECMO kontrovers diskutiert. Die aktuellste randomisiert kontrollierte Studie aus dem Jahre 2018 konnte keinen signifikanten Nachweis erbringen, dass die Therapie des ARDS mittels einer ECMO einen Überlebensvorteil bringt. Randomisiert kontrollierte Studien bei Patienten mit kardiogenem Schock liegen zum gegenwärtigen Zeitpunkt nicht vor und für den Einsatz bei septischem Schock ist die Datenlage und Evidenz schwach. Angesichts der ungeklärten Evidenz und weil die ECMO ein komplexes, kostenintensives und mit Risiken verbundenes Verfahren ist, scheint eine sorgfältige Indikationsstellung unverzichtbar zu sein. Das Ziel unserer Studie war daher die Analyse der Mortalität bei Patienten mit Lungenversagen, kardiogenem Schock und septischem Schock. Darüber hinaus sollten mit der Mortalität assoziierte prognostische Variablen identifiziert werden. Des Weiteren sollte untersucht werden, ob sich mit steigender Fallzahl eine Lernkurve beobachten lässt.
Zu diesem Zwecke führten wir eine retrospektive Kohortenstudie an 131 Patienten durch, die zwischen April 2011 und Juli 2016 in der Asklepios Klinik Langen mit einer ECMO behandelt wurden. Die Patienten wurden hierbei in die drei oben genannten Gruppen kategorisiert. Mithilfe logistischer Regression erfolgte die Identifizierung prognostischer Variablen. Eine Lernkurve wurde anhand des „non-risk-adjusted cumulative observed minus expected failure graph“-Verfahrens erstellt.
Die Analyse der Daten ergab eine Gesamtmortalität von 56%. Die Mortalität bei Patienten mit Lungenversagen, kardiogenem Schock und septischem Schock betrug 54%, 59% bzw. 58%. Bei Patienten mit Lungenversagen waren das Alter, das Jahr und weniger als 20 Fälle pro Jahr signifikant mit der Mortalität assoziiert. Bei Patienten mit kardiogenem Schock waren mit der Mortalität assoziierte Variablen das Alter, der SAPS II-Score, der pH-Wert, der Serumlaktatwert prä-ECMO, der Basenüberschuss prä-ECMO sowie eine Hyperlipidämie. Bei Patienten mit septischem Schock konnten keine mit der Mortalität assoziierten Variablen identifiziert werden. In der multivariaten Regressionsanalyse nach Modellabbau zeigten sich in der gesamten Kohorte das Alter, das prä-ECMO Serumlaktat sowie weniger als 20 Fälle pro Jahr als signifikant mit der Mortalität assoziierte Variablen. Patienten, die vor 2014 behandelt wurden, also in einem Zeitraum mit weniger als 20 ECMO-Fällen pro Jahr, hatten eine signifikant höhere Mortalität als Patienten die im Intervall 2014-2016 behandelt wurden. Mit steigender Fallzahl konnte eine Lernkurve nachgewiesen werden, die einen Wendepunkt im Jahr 2014 zeigte. Der im Jahr 2014 beginnende Abwärtstrend signalisierte eine geringere Sterblichkeitsrate als erwartet.
Zusammenfassend ist die Mortalität in allen Indikationen weiter hoch. Die Fallzahl und damit auch die Erfahrung scheint eine wichtige Rolle in Bezug auf die Mortalität zu spielen. Des Weiteren unterstützen unsere Ergebnisse frühere Studien, die einen Einfluss des Alters und des prä-ECMO Laktat-Wertes auf die Mortalität zeigen konnten.
Auswirkung der Chemisorption von Organothiolaten auf den elektrischen Widerstand dünner Goldfilme
(2018)
Hochgeordnete Monolagen von Organothiolaten auf Goldoberflächen bilden sich bei Kontakt einer Goldoberfläche mit einer Lösung eines Thiols oder Thioacetats spontan aus. Die Adsorption auf dünnen Metallfilmen mit Schichtdicken im Bereich von 25 - 100 nm führt zu einer Änderung des elektrischen Widerstandes des Films, die an Goldfilmen mit Schichtdicken von 25 - 40 nm über eine einfache Zweipunktmessung verfolgt wurde. Die Proportionalität der Widerstandsänderung mit der Menge an adsorbiertem Material konnte für die in dieser Arbeit verwendeten Dünnschichtsensoren bestätigt werden. Zu diesem Zweck wurden gleichzeitig Widerstands- und Oberflächenplasmonenresonanzmessungen an 40 nm starken Goldfilmen durchgeführt. In diesen Experimenten zeigt sich die Widerstandsmessung zur Beobachtung der Adsorptionskinetik als die überlegene Technologie.
Die durch Mikrokontaktdrucken und Freiätzen der gedruckten Strukturen hergestellten Sensoren zeigen eine individuelle Signalintensität. Die Normierung auf die maximale, durch Belegung mit Hexadecanthiol (HDT) oder Dodecanthiol erreichte, Signalstärke ermöglichte den Vergleich der maximalen Signalstärke von Thiolatmonolagen, die durch Belegung mit n-Alkanthiolen (CH_3(CH_2)_(n-1)-SH mit n = 12, 16, 19, 22 und 33, Cn), 11-Mercaptoundecyl-hexaethylenglycol (HSC11EG6OH), Adamantan-1-thiol (AdaSH), Triptycenthiol (TrpSH), Anthracen-2-thiol (Ant-0SH), Anthracen-2-alkanthiolen (Ant-(CH_2)_n-SH mit n = 1 - 5 und 10, Ant-nSH), p-Terphenyl-4-thiol (TP0SH), p-Terphenyl-4-alkanthiolen (TP-(CH_2)_n-SH mit n = 1 - 4, TPnSH) und p-Terphenyl-4-ethanthioacetat (TP2SAc) erzeugt wurden. Die Größe der Widerstandsänderung zeigt eine deutliche Abhängigkeit vom organischen Rest des Oberflächenadsorbats. Für die Verstärkung des Signals wurde die folgende Reihenfolge gefunden: Trp > Ada > Ant-0 > Ant-1 > TP0 > TP1 > Ant-2 > TP2 > Cn (n = 12 - 33) = C11EG6OH = Ant-n (n = 3 - 11) = TPn (n = 3, 4). Bei bekannter Verstärkung des Signals durch ein Adsorbat kann unabhängig von der Oberflächenrauigkeit die Oberflächenbedeckung durch Chemisorbate in einer Güte bestimmt werden, die der durch STM- und TEM-Messungen erreichten vergleichbar ist. Die Methode wurde angewendet, um Schichten von TP2SH und TP2SAc, die bei 20 und 60 °C aus ethanolischer Lösung abgeschieden wurden, zu vergleichen. Die Unterschiede in der Oberflächendichte, die durch eine Erhöhung der Abscheidungstemperatur zu beobachten sind, können durch eine Beschleunigung der Reaktion nach Arrhenius erklärt werden. Auch die Temperaturabhängigkeit der Abscheidungsgeschwindigkeit von HDT aus ethanolischer Lösung an Goldoberflächen, die in einem Bereich von -10 °C bis +30 °C betrachtet wurde, ist mit dem Arrhenius'schen Ansatz konform. Die Aktivierungsenergie der Adsorption von HDT auf Gold wurde auf E_a = 23 +-6 kJ/mol bestimmt.
Die Konzentrationsabhängigkeit der Abscheidung aus ethanolischer Lösung an Goldoberflächen wurde für HDT, AdaSH, TP2SH und TP2SAc untersucht. Um eine Präadsorption der Thiole vor dem eigentlichen Start der Messung zu verhindern, wurde eine Apparatur mit einem Diaphragma aus Aluminium entwickelt, das beim Start der Messung mit dem Sensor durchstoßen wird. Mit Ausnahme von TP2SH zeigen alle Adsorptive ein Adsorptions-Desorptions-Gleichgewicht. Die Adsorptionsisothermen bei 20 °C lassen sich am besten durch die Freundlich-Isotherme beschreiben. Während die Reaktionsordnung im Adsorbat für die Adsorption der Thiole nahe an 1 liegt, hat sie für die Adsorption von TP2SAc einen Wert von ca. 1/4. Damit ergibt sich für die Geschwindigkeitskonstante der Adsorption k_a(HDT) = (2,3 +-0,2) 10^4 L/(mol s), k_a(AdaSH) = (6,1 +-0,2) 10^4 L/(mol s), k_a(TP2SH) = (7,3 +-0,4) 10^3 L/(mol s) und k_a(TP2SAc) = (8 +-3) 10^-2 L^(1/4)/(mol^(1/4) s). Die Adsorptionskurven der Thiole weisen bei Konzentrationen unterhalb von 5 10^-5 mol/L einen linearen Bereich auf, der einer zwischenzeitlichen Diffusionskontrolle zugeordnet wird.
An die aufgenommenen Adsorptionskurven der Thiole wurden literaturbekannte Modelle numerisch angepasst und teilweise weiterentwickelt. Die Anpassung konnte durch die Einführung einer vor der Oberfläche gelagerten Diffusionsgrenzschicht, in welcher der zeitabhängige Verlauf der Analytkonzentration in einem System von 10 Schichten berechnet wurde, deutlich verbessert werden. Von allen getesteten Modellen zeigt nur die Adsorption mit Ausschlussmuster keine Konzentrationsabhängigkeit der Geschwindigkeitskonstante der Desorption. Dieses Modell bezieht den Verlust von Adsorptionsplätzen mit ein, die einem besetzten Adsorptionsplatz benachbart sind und durch das adsorbierte Teilchen verdeckt werden. Der daraus resultierende Zusammenhang zwischen der Konzentration freier Adsorptionsplätze und dem Bedeckungsgrad der Oberfläche Theta_F(Theta) ist abhängig vom Verhältnis der Stoßfrequenz zwischen den Teilchen und der Oberfläche zur Platzwechselfrequenz der Teilchen auf der Oberfläche. Zur Bestimmung von Theta_F(Theta) für die numerische Anpassung der Adsorptionskurven von HDT und TP2SH wurde die Oberflächenbesetzung in einem Monte-Carlo-Verfahren für eine Konzentrationsreihe in Zehnerpotenzschritten simuliert.