Refine
Year of publication
Document Type
- Doctoral Thesis (5696) (remove)
Language
- German (3617)
- English (2050)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5696)
Is part of the Bibliography
- no (5696) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Entzündung (9)
- Genexpression (9)
Institute
- Medizin (1508)
- Biowissenschaften (831)
- Biochemie und Chemie (727)
- Physik (593)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (305)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Die vorliegende Studie untersucht elf PatientInnen mit manischen Episoden in der Vorgeschichte. Keiner war bisher wegen einer depressiven Episode stationär behandelt worden (ICD 10 F31.8). Der Untersuchungszeitpunkt liegt im krankheitsfreien Intervall. Dieser psychiatrischen Gruppe gegenübergestellt werden 11 bzw. 22 stationäre, somatisch erkrankte PatientInnen (gematcht nach Alter und Geschlecht). Als Meßinstrumente dienen das idiografische Verfahren der Repertory Grid-Technik und der standardisierte Gießen-Test, zusätzlich ein halbstandardisiertes Interview zur Erfassung der anamnestischen Daten.
Mit dem Gruppenvergleich und dem hypothesengenerierenden Ansatz aus den Kasuistiken werden für das Selbstkonzept und die interpersonelle Bewältigung der Erkrankung bedeutsame Persönlichkeitsdimensionen erfasst. In der Literatur ist der „Typus manicus“ (V. ZERSSEN, 1986, HECHT ET AL, 1997), die hypomanische Grundstimmung und der Bezug auf soziale Normen und Konventionen (KRÖBER, 1988) beschrieben.
SAUER, RICHTER ET AL (1997) erarbeiteten einen höheren Wert für Extraversion und geringere Rigidität bei manisch Erkrankten gegenüber unipolar Depressiven, aber mehr Rigidität und Isolationstendenz und weniger Normorientiertheit als bei Gesunden. Ebenso werden Bipolar I Erkrankten mehr Persönlichkeitsanteile, wie emotionale Stärke/Stabilität, Gelassenheit, Selbstvertrauen, Ich-Kontrolle, aber auch mehr hysterische Züge und Neurotizismus als psychisch Gesunden zugeschrieben (SOLOMON ET AL., 1996).
Unter Berücksichtigung dieser Ergebnisse aus der Literatur wird angenommen, dass sich die unipolar manischen PatientInnen durch verschiedene Persönlichkeitsdimensionen und auffällige interpersonelle Objektbeziehungen von der somatisch erkrankten Gruppe unterscheiden. Es werden prägnant mehr und häufiger Charakterzüge des „Typus manicus“ (höheres Selbstwertgefühl, unabhängig, unkonventionell, geringere Normorientiertheit, phantasievoll, leichtfertig, extravertiert) in der psychiatrischen Gruppe vermutet. Ebenso wird ein idealisiertes, hochambivalentes Vaterbild erwartet, als Zeichen des eher väterlichen Über-Ichs (MENTZOS, 1995). Darüber hinaus wird eine problematische Paarbeziehung zur Stabilisierung der eigenen intrapsychischen Anteile erwartet. Auf der Basis eines objektbeziehungstheoretischen Modells der Depression und Manie wird ein dynamischer Zusammenhang zwischen der Regulation des Selbstwertgefühls und den interpersonellen Beziehungsmustern postuliert.
Um das Selbstwertgefühl zu erfassen, werden in der Repertory Grid-Technik die Selbstelemente (Selbst, Ideal-Selbst, normatives Selbst) vorgegeben. Zur Beurteilung der Objektbeziehungen werden die Elemente Mutter, Vater und PartnerIn hinzugefügt. Die gleichen Selbst- und Fremdbilder werden mit dem Gießen-Test erfragt. Das Konstruktsystem der psychiatrischen PatientInnen ist weder eingeengt noch zeigt es eine Denkstörung. Der Aufbau, untersucht an der Verteilung auf die Hauptkomponenten, ist vergleichbar mit dem der Kontrollgruppe.
Deutlich wird ein höheres Selbstwertgefühl in der psychiatrischen Gruppe gegenüber der somatischen Kontrollgruppe durch eine geringere mittlere Distanz zwischen dem Selbst und Ideal-Selbst in der Repertory Grid-Technik. Es kann ein relativ hohes Selbstwertgefühl einer zum Befragungszeitpunkt symptomfreien Gruppe zugeordnet werden. Dies kann aber nicht durch die mittlere Distanz zwischen Selbst und normativem Selbst gestützt werden. In den Einzelfällen zeigt keine ProbandIn ein niedriges, neun ein normales und zwei ein hohes Selbstwertgefühl. Dieses zu den Charakterzügen des „Typus manicus“ passende höhere Selbstwertgefühl lässt sich durch den Gießen-Test nicht bestätigen. Die erwartete hypomanischere Grundstimmung der untersuchten Gruppe bestätigt sich nicht. Im Gegenteil, die psychiatrischen ProbandInnen schätzen sich depressiver ein als die Kontrollgruppe.
Die Eigenschaften „unkonventionell“ und „weniger Normorientiertheit“ lassen sich durch eine größere mittlere Distanz in der Repertory Grid-Technik zwischen Ideal-Selbst und normativem Selbst beweisen. Dies zeigt sich auch im Gießen-Test. Leider sind insgesamt im Mittel keine prägnanten Ergebnisse, sondern nur Tendenzen zu erkennen. Die Hypothesen zum Selbstwertgefühl lassen sich in der Repertory Grid-Technik lediglich durch Tendenzen bestätigen, die sich im Gießen-Test nicht zeigen. Aber es wird zum ersten Mal für ein zur Zeit symptomfreies Kollektiv ein relativ hohes Selbstwertgefühl im Repertory Grid nachgewiesen. Bei der Betrachtung der Objektbeziehungen fällt eine große Varianzaufklärung des phasenspezifischen Selbst unter den manisch Erkrankten in Repertory Grid-Technik auf. Andere Elemente werden dadurch schwer interpretierbar. Wichtige Bezugspersonen scheinen außer den Eltern FreundInnen und Bekannte zu sein. Die Mutter wird am häufigsten als Konfliktperson genannt.
Die mittleren Distanzen zwischen den Selbstelementen und den Eltern im Repertory Grid zeigen eine größere Nähe zum Vater. Dies deutet auf ein eher väterliches Introjekt, bei hochambivalenter Beziehung (Distanz Ideal-Selbst zum Vater entweder auffällig klein oder auffällig groß). Durch den Gießen-Test bestätigt sich die größere Nähe des Ideal-Selbst und des normativen Selbst zum Vater, leider nicht die erwartete Nähe des Selbst zum Vater.
Die Ergebnisse zu den Selbst-Objekt-Beziehungen sind deutlich und können meist durch den Gießen-Test bestätigt werden.
Die Repertory Grid-Technik eignet sich als individuumzentriertes, idiografisches Testinstrument, um individuelle Beziehungsstrukturen auf kognitiver Ebene zu erfassen. Dies wird anhand der Kasuistiken deutlich. Die Operationalisierung des Selbstwertgefühls und der Selbst-Objekt-Beziehungen über die Mittelwerte bleibt schwierig.
Einzelne, für die Studie wichtige Elemente, sind aufgrund der geringen Varianzverteilung schwer interpretierbar. Die zum Teil nicht übereinstimmenden Ergebnisse zum Selbstwertgefühl aus beiden Testinstrumenten könnten durch die unterschiedlichen für sie aktuellen Konstrukträume der Untersuchten bedingt sein. Eventuell ist der standardisierte Raum des Gießen-Testes für viele manisch Erkrankte für intrapersonale Strukturen nicht relevant. Sie haben sich, wie KRÖBER (1988) ausführt, im Verlauf ihrer Erkrankung zu weit von dem Normalen entfernt.
Leider konnte aufgrund der schwer erreichbaren und sehr seltenen Erkrankung keine größere Stichprobe untersucht werden. Es bietet sich an, die Ergebnisse auch mit Hilfe anderer Testinstrumente an größeren Stichproben zu validieren.
Durch die Kombination aus Gruppenauswertung und Einzelfallbetrachtung wird deutlich, dass auffällige Einzelbefunde oft nivelliert werden. Auch dies sollte an größeren Stichproben mit der Möglichkeit von Untergruppierungen überprüft werden.
Die Distraktionsosteogenese bietet im Bereich der Zahnmedizin die Möglichkeit, Kieferanteile zu verlängern und zu verlagern. Basierend auf den grundlegenden Arbeiten von Gavrilo Ilizarov seit 1954 ist in den siebziger und achtziger Jahren des letzten Jahrhunderts diese Methode von mehreren Autoren weiterentwickelt und von Karp 1989 erstmals am menschlichen Unterkiefer angewendet worden. Guerrero entwickelte dann die Möglichkeit, den Unterkiefer median zu distrahieren. Auf kieferorthopädischem Gebiet unterscheiden sich Distraktionsapparaturen zur medianen Unterkieferdistraktion in der aktuellen Anwendung durch ihre Verankerungen. Diese ist ossär fixiert und dental fixiert möglich. Beide Verankerungsarten haben Vor- und Nachteile. Zu den Vorteilen der ossär verankerten Apparatur zählen die direkte Einwirkung auf den Knochen und somit das Wirken der Kraft in der Nähe des Distraktionsspaltes. Nachteilig ist allerdings, dass der ossär verankerte Distraktor erst nach der chirurgischen Durchtrennung der Mandibula inseriert werden kann, dass es zu gingivalen Entzündungen an den Verankerungsschrauben oder zu parodontalen Schäden an Zähnen kommt, um die eine Verankerungsligatur geschlungen ist. Hauptsächlich treten jedoch schmerzhafte Dekubitalgeschwüre auf. Im Gegensatz zur ossär verankerten Apparatur ist bei der dental verankerten von Nachteil, dass ihre Kraft direkt nur auf Verankerungszähne wirkt und diese nach bukkal kippt. In der Regel handelt es sich bei den Verankerungszähnen um die ersten Prämolaren und Molaren des Unterkiefers. Dieser Nachteil kann durch eine leichte Überkorrektur kompensiert werden. Die vom Distraktor dental wirkende Kraft bewirkt eine Distraktion des Kallus im Osteotomiespalt und gleichzeitig eine bukkale Kippung der Verankerungszähne. Die vorliegende Studie untersuchte, wie hoch dieser dentale Anteil bei einer medianen Unterkieferdistraktion mittels einer dental fixierten Distraktionsapparatur war, am Beispiel von sechzehn Patienten. Messungen wurden im Mund vorgenommen, und zwar an der Distraktionsschraube sowie an speziell inserierten Messimplantaten, die als feste Referenzpunkte fungierten. Die gewonnenen Messwerte wurden in Messprotokollen festgehalten. Die Modelle der Patienten von Beginn der Distraktion und am Ende der Distraktion wurden vermessen. Alle Messungen wurden mit einer digitalen Schieblehre durchgeführt. Die Auswertung der Messergebnisse ergab im Durchschnitt einen dentalen Anteil der wirkenden Kraft von 29% und einen skelettalen Anteil von 71%. Die Vermessung der Modelle zeigte, dass bei einer durchschnittlichen Erweiterung der Distraktionsapparatur von 7,15 mm eine transversale Erweiterung des Zahnbogens im Bereich der ersten Prämolaren um 6,46 mm und im Bereich der ersten Molaren um durchschnittlich 4,74 mm erzielt worden war. Die vorliegende Untersuchung konnte zeigen, dass der dental verankerte Distraktor im Unterkiefer trotz dental wirkender Effekte gute Distraktionsergebnisse erzielte. Die Vorteile des dental verankerten Distraktors gegenüber der ossär verankerten Apparatur liegen in seiner geringeren Invasivität, da kein zweiter chirurgischer Eingriff nötig ist, und bieten dem Chirurgen bei der Trennung der Unterkiefersegmente eine gute Übersicht aufgrund der prächirurgischen Inserierbarkeit. Ebenso entfallen Entzündungen am Knochen und den umgebenden Weichgeweben. Im Vergleich zu früheren Schraubenapparaturen schränkt die zierlich gestaltete Variety®-Schraube den Zungenraum weniger ein und hat einen angenehmen Tragekomfort. Als biologischer Vorteil der Schraube erschien die relativ zu einer Hyrax-Schraube erhöhte Resilienz. Durch ihren Aufbau mit nur einem Führungsstab parallel zur Spindel (im Gegensatz zu zwei Führungsstäben bei der Hyrax-Schraube) waren leichte Bewegungen beider Unterkiefersegmente möglich, was die Knochenbildung günstig beeinflusste. Die mediane Unterkieferdistraktion ist als Behandlungsmöglichkeit bei transversalem Raummangel im Unterkiefer als Alternative zur klassischen Extraktionstherapie zu sehen und dieser zum Teil überlegen. Bei einem Raummangel ausschließlich im Unterkiefer muss zum Beispiel im Vergleich zur Extraktionstherapie keine Ausgleichextraktion im Oberkiefer vorgenommen werden. Es ist möglich, Knochen neu zu gewinnen, was Vorteile in Funktion und Ästhetik birgt. Die Auswahl der Therapieform ist aber immer individuell vom Behandler für den jeweiligen Patientenfall zu treffen.
Nukleäre Rezeptoren (NRs) sind ligandenaktivierte Transkriptionsfaktoren, die an der Regulation unzähliger (patho-)physiologischer Prozesse im Körper beteiligt sind, wodurch sie interessante therapeutische Zielstrukturen darstellen. Unter ihnen zählen die PPARs (α, γ und δ) zur Hälfte der gut erforschten NRs. Sie haben als Lipidsensoren vor allem metabolische Funktionen und ihre synthetischen Liganden sind als Arzneistoffe zugelassen, sind anderen Therapieoptionen jedoch aufgrund geringerer Wirksamkeit und klassenspezifischer Nebenwirkungen unterlegen. Daher ist der Bedarf an neuen Konzepten zur selektiven Modulation der PPARs groß. Den gut studierten NRs gegenüber steht die andere Hälfte der NRs, deren Funktionen noch nicht umfassend verstanden sind. Nurr1 ist ein solcher NR, dem großes therapeutisches Potential bei neurodegenerativen Erkrankungen wie Parkinson, Alzheimer-Demenz und Multipler Sklerose zugeschrieben wird. Der konstitutiv aktive NR wird hauptsächlich im ZNS, und dort vor allem in dopaminergen Neuronen, exprimiert, wo er neuroprotektive und anti-entzündliche Effekte vermittelt. Trotz der jüngsten Erkenntnisse zu potenziellen endogenen Liganden der direkten Interaktion der Nurr1-Ligandbindedomäne (LBD) mit kleinen, wirkstoffartigen Molekülen, mangelt es an geeigneten chemischen Tools, um die Nurr1-Modulation als neues therapeutisches Konzept zu validieren. Ziel dieser Arbeit war daher die Identifikation, Entwicklung und Charakterisierung neuer tool compounds für die PPARs und Nurr1.
Das Konzept der Photopharmakologie eröffnet neue Möglichkeiten in der zeitlichen und räumlichen Kontrolle biologischer Effekte. Mit Hilfe computergestützten Designs wurden aus dem PPARγ-Agonist Rosiglitazon und dem pan-PPAR-Agonist GL479 Azobenzen-basierte photoschaltbare PPAR-Agonisten entwickelt und optimiert. Das Rosiglitazon-Azolog 36 wurde durch terminale Erweiterung als cis-präferenzieller selektiver PPARγ-Agonist erhalten, der durch Licht aktiviert werden konnte. Aus GL479 ging zum einen 38 als hochpotenter und selektiver PPARα-Agonist hervor, der in seiner trans-Konfiguration 35-mal potenter war als das entsprechende cis-Isomer. Zum anderen wurde ein dualer trans-präferenzieller PPARα- und -δ-Agonist (41) entwickelt. In einem eigens etablierten Fluoreszenz-Reportergenassay konnte durch die neuen photopharmakologischen Tools die PPAR-Aktivität in lebenden Zellen im zeitlichen Verlauf kontrolliert werden.
Auch die Identifikation und Charakterisierung endogener Liganden ist von großer Relevanz für die Modulation von NRs. Mit der Entdeckung der PPARγ-Aktivierung durch Garcinolsäure (48), einem Vitamin-E-Metaboliten, konnte ein neuer Aktivierungsmechanismus aufgedeckt werden, der ein besonderes Co-Regulator-Interaktionsprofil umfasst. Eine Co-Kristallstruktur der PPARγ-LBD im Komplex mit 48 zeigte, dass 48 sowohl die orthosterische als auch eine neue allosterische Bindestelle adressiert. Eine Genexpressionsanalyse in humanen Hepatozyten zeigte, dass sich dieser besondere Aktivierungsmechanismus von 48 auch in einer differenzierten Modulation der PPARγ-regulierten Genexpression widerspiegelte, woraus sich mögliche therapeutische Anwendungen für eine selektiv allosterische PPAR-Modulation ableiten lassen.
Der erste Ansatz zur Suche nach Nurr1-Modulatoren als tool compounds war von den Prostaglandinen A1 und A2 als potenziellen endogenen Nurr1-Liganden inspiriert. Da diese Entzündungsmediatoren durch Aktivität der Cyclooxygenasen (COX) 1 und 2 entstehen, entstand die Hypothese, dass synthetische COX-Inhibitoren, auch bekannt als nichtsteroidale Antirheumatika (NSARs), Nurr1 modulieren könnten. Dies konnte in einem Screening von 39 strukturell diversen NSARs im Gal4-Nurr1-Reportergenassay bestätigt werden. Mit Meclofenaminsäure als differenziellem Nurr1-Modulator sowie Oxaprozin und Parecoxib als den ersten inversen Nurr1-Agonisten konnte dabei außerdem gezeigt werden, dass die hohe konstitutive Nurr1-Aktivität bidirektional moduliert werden kann, und dass sowohl das Co-Regulator-Rekrutierungsprofil als auch das Dimerisierungsverhalten an der Vermittlung von Nurr1-Ligand-Effekten entscheidend beteiligt sind.
Die zweite Strategie beruhte auf den alten Antimalariawirkstoffen Amodiaquin (19) und Chloroquin (25), die zuvor als moderate Nurr1-Agonisten (EC50 Nurr1: 36 µM (19), 47 µM (25)) identifiziert wurden, aber aufgrund zahlreicher unspezifischer Effekte für den breiten Einsatz als tool compounds für Nurr1 ungeeignet sind. Eine Evaluation der einzelnen Strukturmerkmale dieses Chemotyps zeigte, dass das gemeinsame 7-Chlorochinolin-4-amin Grundgerüst ausreichend ist, um Nurr1 zu aktivieren (EC50 Nurr1: 259 µM). Basierend auf dieser Erkenntnis gingen durch gezielte Strukturmodifikationen dieses Grundgerüstes die Nurr1-Agonisten 71 und 73 hervor (EC50 Nurr1: 7,3 µM (71), 17 µM (73)), die die Leitstrukturen in ihrer Potenz übertrafen...
This study analyses five British translations of Bertolt Brecht's 'Mutter Courage und ihre Kinder'. Two of these translations were written by speakers of German, and three by well-known British playwrights with no knowledge of the source text language. Four have been produced in mainstream British theatres in the past twenty-five years. The study applies translation studies methodology to a textual analysis which focuses on the translation of techniques of linguistic "Verfremdung", as well as linguistic expression of the comedy and of the political dimension in the work. It thus closes the gap in current Brecht research in examining the importance of his idiosyncratic use of language to the translation and reception of his work in the UK. The study assesses the ways in which the translator and director are influenced by Brecht's legacy in the UK and in turn, what image of Brecht they mediate through the production on stage. To this end, the study throws light on the formation of Brecht's problematic reputation in the UK, and it also highlights the social and political circumstances in early twentieth century Germany which prompted Brecht to develop his theory of an epic theatre. The focus on a linguistic examination allows the translator's contribution to the production process to be isolated. Together with an investigation of the reception of each performance text, this in turn facilitates a more accurate assessment of the translator and director's respective influence in the process of transforming a foreign-language text onto a local stage. The analysis also sheds light on the different approaches taken by speakers of German, and playwrights creating an English version from a literal translation. It pinpoints losses in translation and adaptation, and suggests how future versions may avoid these.
Anorexia nervosa stellt mit einer geschätzten Prävalenz von 0,2-1,3 Prozent der Bevölkerung (Hobbs & Johnson, 1996) und einer Mortalitätsrate der Erkrankten von durchschnittlich zehn Prozent (Strober et al., 1997; Hobbs & Johnson, 1996; Nielsen, 2001) eine sehr ernst zu nehmende Erkrankung dar. Das Krankheitsbild ist gekennzeichnet durch ein sehr niedriges Körpergewicht, Verhaltensweisen zur Gewichtsreduktion, Körperschemastörungen und endokrinologischen Störungen (Dilling et al., 2000; American Psychiatric Association, 2000) sowie einer ausge-prägten psychiatrischen Komorbidität (Godart et al., 2000; OBrien & Vincent, 2003). Verschiedene neurobiologische Studien geben Hinweise auf strukturelle Hirnveränderungen (Gagel, 1953; Martin, 1958; Dolan et al., 1988; Krieg et al., 1988; Palazidou et al., 1990; Katzman et al., 1996; Golden et al., 1996; Swazye et al., 1996; Swazye et al., 2003), Dysfunktionen im Neurotransmitterhaushalt (Kaye et al., 1984; Kaye et al., 1999; Bailer et al., 2005; Frank et al., 2005; Bergen et al., 2005) sowie auf eine veränderte neuronale Aktivierung bei Patienten mit Anorexia nervosa (Uher et al., 2005; Sachdev et al., 2008; Seeger et al., 2002; Wagner et al., 2003; Santel et al., 2006, Wagner et al., 2008; Wagner et al.; 2007). Einige Studien liefern zudem Anhaltspunkte, dass bei Patienten mit Anorexia nervosa sowohl Störungen in Regionen der Geschmacksverarbeitung, als auch in Bereichen, die mit dem Belohnungswert der Nahrung in Zusammenhang stehen, vorliegen könnten (Wagner et al., 2007; Wagner et al., 2008). Dabei ist vor allem die Verarbeitung von Fett interessant, da Patienten mit dieser Erkrankung hochka-lorische Nahrungsmittel in der Regel ablehnen (Sunday & Halmi, 1990) und sogar häufig eine Furcht vor derartigen Nahrungsprodukten entwickeln (Fernstrom et al., 1994). Bisher sind noch viele Fragen, die die neuronale Verarbeitung fetthaltiger Sub-stanzen betreffen und Aufschluss über sensorische, hedonische und motivationale Aspekte des Konsums von Fett und Hinweise auf die Genese von Essstörungen geben könnten, ungeklärt. Daher wird in dieser Studie die neuronale Verarbeitung und Bewertung bei der Applikation eines fetthaltigen Stimulus im Kontrast zu einem nicht fetthaltigen Stimulus mit gleicher Viskosität und einem neutralen Stimulus bei 15 remittierten Patientinnen mit Anorexia nervosa im Vergleich zu einer Kontrollgruppe mit 18 Probanden und 14 remittierten Bulimie-Patientinnen mittels funktioneller Magnetresonanztomographie untersucht. In der Anorexie-Gruppe fanden sich in dieser Studie ein signifikant vermindertes Antwortverhalten im anterioren ventralen Striatum (AVS) bezüglich der Kontraste CMC/Wasser und Sahne/Wasser im Vergleich zu den Patientinnen mit Bulimia nervosa. Auch im Vergleich mit der Kontrollgruppe zeigten sich bei den Anore-xie-Patientinnen deutlich geringere Aktivierungen im AVS für CMC und Sahne im Kontrast zu Wasser, die zwar nicht signifikant sind, aber Hinweise auf eine veränderte Aktivierung im Belohnungssystem liefern könnten. Im AVS befindet sich der Nucleus accumbens, der eine zentrale Rolle im Beloh-nungssystem des Gehirns spielt, indem er zielgerichtetes Verhalten durch die In-tegration von Informationen aus limbischen Strukturen und dem präfrontalen Kor-tex reguliert (Goto & Grace, 2008). Eine veränderte Aktivierung im diesem Be-reich bei der Applikation von Nahrungsstimuli, könnte daher zu einer anderen Bedeutung von Nahrung führen und damit eine Änderung des Nahrungskonsums hervorrufen (Berridge et al., 2010), die möglicherweise eine Ursache für die Ge-nese einer Essstörung darstellt. Durch ein besseres Verständnis für das veränderte Empfinden und Verhalten als mögliches Resultat eines gestörten Belohnungssystems bei Anorexie-Patienten, könnte diese Studie neue Ansatzpunkte für therapeutische Strategien liefern, die die Patienten durch kognitive Übungen und verhaltenstherapeutische Interventio-nen dabei unterstützen, die Dysfunktionen im Bewertungs- und Belohnungssys-tem zu erkennen und ihre Verhaltensmuster zu verändern.
Thema der vorliegenden Studie ist die Evaluation der Betazellfunktion bei Patienten mit Diabetes mellitus Typ 2, für deren Bestimmung es bisher keine einfach anwendbare Methode gibt. Die Clamp-Methode erfordert eine kontinuierliche Überwachung und ist daher nicht geeignet für die Anwendung in der täglichen Klinikroutine. Nateglinide ist ein Derivat der Aminosäure D-Phenylalanin, das durch direkte Wirkung an den Betazellen der Langerhanns’schen Inseln des Pankreas die Insulinsekretion vor allem in der frühen Phase der Freisetzung stimuliert. Ziel der Arbeit war die Überprüfung eines Nateglinide-stimulierten oralen Glucosetole-ranztests als Instrument zur ambulanten Bestimmung der stimulierbaren Betazellkapa-zität sowie sekundär die Bestimmung von Grenzwerten für Blutzucker und Insulinsek-retion für die Entscheidung der Therapieeskalation einer oralen Therapie hin zu einer Insulin(unterstützten) Therapie. Im Rahmen dieser Studie führten wir an 30 gesunden Kontrollpersonen und 45 Patien-ten mit Diabetes mellitus Typ 2, die entweder diätetisch oder mit oralen Antidiabetika behandelt wurden, einen modifizierten oralen Glucosetoleranztest (50g) von dreistün-diger Dauer durch, der mit der Gabe von 120mg Nateglinide kombiniert wurde. Es erfolgte die Bestimmung der Basalwerte von Glucose, Insulin und C-Peptid sowie der Spiegel nach 30, 60, 120 und 180 Minuten. Aus den Ergebnissen wurden der HOMA-IR, HOMA-ß-cell-Index sowie die AUC von Insulin, C-Peptid und Glucose bestimmt. Die gesunden Kontrollpersonen wiesen zu allen Testzeitpunkten signifikant niedrigere Glucosewerte auf als die Patienten mit Typ-2-Diabetes (Maximum Glucose: 125,05±25,97 vs. 234,78±64,58mg/dl, p<0,001 und AUC Glucose: 15197,25±2798,9 vs. 34022,05±11142,17mg/dl, p=0,02), die zudem ihr Blutzuckermaximum zu einem späteren Testzeitpunkt erreichten (35,25±17,61 vs. 63,33±31,76 min, p<0,001). Zum Testzeitpunkt 120 Minuten konnte bei 18 Patienten mit Typ-2-Diabetes ein norm-wertiger Blutglucosespiegel <120mg/dl bestimmt werden, 7 hatten Werte vereinbar mit einer IGT und 20 wiesen diabetische Blutglucosespiegel >200mg/dl auf. Es fiel eine signifikante Korrelation vom Zeitpunkt der maximalen Insulinsekretion und dem Blutglucosemaximum auf. Je später der Zeitpunkt der maximalen Insulin- bzw. C-Peptid-Sekretion erreicht wird, desto höher ist die maximale Blutglucosekonzentration. Adipöse Patienten (BMI >30kg/m2) hatten während des gesamten Testverlaufs höhere Blutglucosewerte und eine geringere stimulierbare Insulinsekretionsleistung als die Patienten mit einem niedrigeren BMI. Die untersuchten Patienten mit Typ-2-Diabetes lassen sich in drei Gruppen unterteilen: eine mit vorherrschendem Insulinsekretionsdefizit (Maximum C-Peptid <4ng/ml, n=6), eine mit führender Insulinresistenz (HOMA-IR>2,5, n=16) und eine Gruppe mit einer Kombination aus beiden Störungen (n=3). Die Patienten mit kombinierter Störung hat-ten einen höheren HbA1c als die anderen Gruppen (10,2%±2,38 vs. 6,66%±0,46 und 6,91%±1,24, n.s.) und wiesen über den gesamten Testverlauf höhere Blutglucosewerte auf. Mit dem Ziel, eine Hilfestellung bei der Entscheidung einer Therapieintensivierung bzw. –umstellung auf eine Insulintherapie zu geben, wurde ein Score aufgestellt, der die Parameter Blutzuckerspiegel zum Testzeitpunkt 120 min, maximaler C-Peptidspiegel, HOMA-IR sowie den Steigerungsfaktor von basalem zu maximalem C-Peptidspiegel umfasst. Beurteilt anhand der dort erreichten Punktzahl zeigen einerseits 23 der unter-suchten Patienten ein suffizientes Ansprechen auf die orale antihyperglykämische The-rapie, was die Fortführung der oralen Diabetestherapie unterstützt. Andererseits er-reichten auch 6 Patienten einen Punktebereich, bei dem von einer unzureichenden Betazellsekretion auszugehen ist und somit ein hohes Risiko für ein Sekundärversagen der oralen Diabetestherapie besteht, so dass eine Therapieumstellung auf eine Insu-lin(unterstützte) Therapie empfohlen wird. Basierend auf der limitierten Anzahl an Daten, die wir erhoben haben, empfehlen wir die Umstellung auf eine Insulintherapie, wenn im Nateglinide-Test mindestens drei der folgenden vier Punkte zutreffen: • Blutglucose zum Zeitpunkt 120min >200mg/dl • HOMA-IR >4 • Maximales C-Peptid <4ng/ml • Stimulierte C-Peptid-Steigerung <2fach Die hiesige Studie zeigt, dass der Nateglinide-Test ein in der täglichen Klinikroutine praktikables Instrument zur Evaluation der residualen Betazellfunktion darstellt. Er er-möglicht die gleichzeitige Beurteilung der noch vorhandenen Insulinsekretionskapazität und der Insulinresistenz bei Patienten mit Typ-2-Diabetes. In Kombination mit dem vorgestellten Score kann er helfen, eine Progression des Diabetes mellitus Typ 2 zu verhindern, indem der Zeitpunkt für den Beginn einer Insulintherapie genauer definiert wird.
Die vorliegende Arbeit befasst sich mit Verletzungen im leistungsorientierten Kanusport. Deutsche Kanusportler der Disziplinen Rennsport, Slalomsport und Wildwasserabfahrt, unterteilt in die Kategorien Kajak und Kanadier, sollten die Verletzungen der letzten 4 Jahren vor dem Befragungszeitraum 2005 bis 2006 angeben. Ziel war es herauszufinden, welche Verletzungen für jede Kategorie und Disziplin sportarttypisch waren, ob es Unterschiede zwischen den Kategorien und Disziplinen gab, welche trainierte (Begleit-)Sportart die höchste Verletzungsrate hatte und welche endogenen und psychosozialen Faktoren Einfluss auf die Verletzungen hatten. Zu den häufigsten Verletzungen im leistungsorientierten Kanusport zählten die Handgelenkschmerzen, Blasen- und Hornhautbildung an Händen und Füßen, Schulterschmerzen, insbesondere das subakromiale Impingementsyndrom, Blockierungen der Brust- und Halswirbelsäule, Schmerzen im Lendenwirbelsäulenbereich, Dysästhesien der Beine, Knieschmerzen, Muskelkrämpfe, Muskelverspannungen und Muskel- und Sehnenverkürzungen. An Blasenbildung und Hornhautbildung an den Händen sowie Muskelverspannung litten die meisten Sportler aller Kategorien und Disziplinen. Die meisten Sportler der Kajakkategorien litten an Schulterschmerzen, Handgelenkschmerzen und Dysästhesien der Beine. Knieschmerzen und Schmerzen in der Lendenwirbelsäule erlitten die meisten Sportler im Kajak Renn- und Abfahrtssport. Hornhautbildung an den Füßen betraf überwiegend die Kajak-, Renn- und Slalomsportler. Blockierungen im Bereich der Hals- und Brustwirbelsäule sowie das subakromiale Impingementsyndrom erlitten nur mehr als 25% der Kajak Rennsportler. Die meisten Sportler aller Kanadierkategorien klagten über Knieschmerzen. Dysästhesien der Beine und Muskelkrämpfe gaben die meisten Kanadiersportler in den Disziplinen Slalom und Abfahrt an. Von Handgelenkschmerzen waren überwiegend nur die Kanadierrennsportler betroffen. Die Kanadierslalomsportler gaben Schulterschmerzen und Muskel-/Sehnenverkürzung an. Die Arbeit ergab, dass die meisten Verletzungen im Rahmen des Kanu- und Krafttrainings erlitten wurden. Die wenigsten Verletzungen passierten beim Training auf dem Kanuergometer. Dies lag unter anderem auch am geringen Anteil des Kanuergometertrainings am Gesamttraining. Die Sportler stellten die Verletzungen überwiegend mit den endogenen Faktoren Übermüdung, mangelndes Warm-up und fehlerhafte Technik in Zusammenhang. Psychosoziale Faktoren konnten die meisten Sportler nicht in Zusammenhang mit Verletzungen bringen. Einige Sportler gaben hierzu jedoch sozialen Stress und Wettkampfstress an.
IL-38 is the latest discovered cytokine of the IL-1 family and has been added to the IL-36 subfamily. Since its discovery in 2001, increasing evidence suggests predominantly anti-inflammatory properties of IL-38, which are most likely exerted through three potential receptors, the IL-1 Receptor 1 (IL-1R1), IL-36 Receptor (IL-36R) and the IL-1 Receptor Accessory Protein Like 1 (IL-1RAPL1). However, to this date detailed knowledge of IL-38 functioning remains to be examined. Importantly, how IL-38 is processed, secreted from cells and the exact mechanisms of target receptor binding and intracellular signaling are not fully understood. Further, IL-38 has been associated with regulatory functions in autoimmune diseases like systemic lupus erythematosus (SLE) and psoriasis. At the same time however, connections between B cells as indispensable part of immunity and IL-38 remain rare.
In this study we examined the influence of IL-38 in peripheral human blood B cells differentiating into antibody secreting cells using a three-step in vitro differentiation process. We first show that all potential IL-38 binding receptors are present on peripheral blood B cells on a gene expression level and remain detectable throughout B cell differentiation. Next, while B cells treated with exogenous IL-38 depict no differences in early B cell activation markers, the process of B cell differentiation revealed significant alterations in B cell phenotype created by IL-38 treatment. Predominantly on day 7 of the differentiation process, IL-38 treated B cells showed significantly reduced CD38 expression which depicts an important step in development towards plasma cells. We hypothesize that IL-38 acts antagonistically on the IL-1R1 pathway reducing Nuclear factor kappa B (NFκB) expression and consequently decreasing CD38 expression. Further IL-38 reduced early antibody production while increasing IgM secretion at the end stages of differentiation. Next, we repeated the differentiation assays under the influence of additional IL-21 stimulation to further enhance plasma cell development. In these experiments, the impact of IL-38 on B cell differentiation and immunoglobulin production were reduced, indicating a comparatively moderate relevance of IL-38 for B cell differentiation. We then examined how proliferation and cell death were impacted by exogenous IL-38 during B cell differentiation. IL-38 treatment alone significantly reduced B cell survival which was further augmented by IL-21 stimulation. We conclude that IL-38 and IL-21 act synergistically in promoting B cell apoptosis, also depicting an anti-inflammatory property of IL-38. Finally, using a siRNA we successfully performed an IL-38 knockdown experiment of human blood B cells reducing IL-38 expression to 44% measured on day 4 of B cell differentiation. In these experiments we observed reversed tendencies of CD38 expression compared to exogenous IL-38 treatment. Here, IL-38 knockdown cells showed increased CD38 expression indicating endogenous regulatory properties of IL-38 in B cell differentiation.
Our project, for the first time proves direct effects of IL-38 on human B cells. The results support previous research of IL-38 to act anti-inflammatory as it seems to modulate B cell differentiation, survival, and immunoglobulin production in a down-regulatory manner. These findings pave way for more detailed research on the connection between B cell homoeostasis and IL-38 function.
Recent advances in artificial neural networks enabled the quick development of new learning algorithms, which, among other things, pave the way to novel robotic applications. Traditionally, robots are programmed by human experts so as to accomplish pre-defined tasks. Such robots must operate in a controlled environment to guarantee repeatability, are designed to solve one unique task and require costly hours of development. In developmental robotics, researchers try to artificially imitate the way living beings acquire their behavior by learning. Learning algorithms are key to conceive versatile and robust robots that can adapt to their environment and solve multiple tasks efficiently. In particular, Reinforcement Learning (RL) studies the acquisition of skills through teaching via rewards. In this thesis, we will introduce RL and present recent advances in RL applied to robotics. We will review Intrinsically Motivated (IM) learning, a special form of RL, and we will apply in particular the Active Efficient Coding (AEC) principle to the learning of active vision. We also propose an overview of Hierarchical Reinforcement Learning (HRL), an other special form of RL, and apply its principle to a robotic manipulation task.
Thema der vorliegenden Arbeit ist die systematische Darstellung und methodische Bewertung von wissenschaftlichen Publikationen zu psychosozialen Aspekten von Herzrhythmusstörungen. Thematisch ergaben sich zwei Hauptrichtungen: 1. Das Befinden und die Lebensqualität von Patienten mit Herzrhythmusstörungen. 2. Das Problem der psychischen Beteiligung an der Auslösung von ventrikulären Arrhythmien und dem plötzlichen Herztod. Mit der Eignungsbewertung nach Hermann-Lingen und Buss (2002), mit der der Hauptteil der Studien bewertet wurde, konnten die Studien meist gut eingeteilt werden. Die Klassifizierung erfolgte anhand zweier Aspekte: der Fallzahl und der methodischen Qualität (entsprechend der Fragestellung der vorliegenden Arbeit). Die Gesamt-Eignung einer Studie errechnet sich aus dem Produkt von Fallzahl und dem Mittelwert der methodischen Qualität. Eine Ausnahme von der o.g. Bewertung stellen Studien dar, die Fragen zur Lebensqualität nur als ein weiteres Kriterium zusätzlich zu kardiologischen Parametern untersuchen, welche das größere Gewicht haben. Die Eignung ergibt sich hier als die Summe aus Fallzahl und Nutzung eines validierten Messinstrumentes. Da sie trotzdem meist als „weniger geeignet“ bewertet wurden, haben sie in dieser Arbeit kaum Gewicht. In der vorliegenden Arbeit wurden die gesichteten Originalarbeiten entsprechend ihrem Design in 3 Subgruppen unterteilt und bewertet: Querschnitts-, Verlaufs- und Prädiktorstudien. Die Verlaufsstudien befassen sich hauptsächlich mit Fragen der Lebensqualität und dem Befinden, die Prädiktorstudien ausschließlich mit dem Problem der psychischen Beteiligung an der Auslösung von ventrikulären Arrhythmien und dem plötzlichen Herztod, die Querschnittstudien bearbeiten beide Schwerpunkte. Die methodische Qualität der Studien war bei den o.g. Hauptthemen sehr unterschiedlich. Dabei ist das Niveau der Studien zur eher jungen Forschungsrichtung Lebensqualität bei den Verlaufsstudien mit 10 von 17 oder 59% Studien mit guter Bewertung eher mäßig, bei den Querschnittstudien mit 6 von 7 oder 86% gut. Bei den Studien die eher andere, einzelne Parameter zum Befinden von Patienten abfragen wie Distress, Angst, Depression, Schmerz, Anpassung an die Krankheit, Sorge um die Krankheit oder Unsicherheit wegen der Krankheit und sie mit der Lebensqualität in Beziehung setzen, ist das Niveau schlechter mit formal 11 von 11 als „weniger geeignet“ bewerteten Studien bei den Querschnittstudien und 4 von 4 bei den Verlaufsstudien, was hauptsächlich an kleinen Fallzahlen lag. Beim schon älteren Thema der psychischen Beteiligung an der Auslösung von ventrikulären Arrhythmien und dem plötzlichen Herztod ist das Niveau wesentlich besser. Das Niveau der 13 Prädiktorstudien ist hier formal hoch mit 9 von 12 also 75% als „gut“ oder „besonders gut“ geeignet bewerteten Studien. 7 Querschnittstudien befassen sich ebenfalls mit dem Thema. Davon sind 6, also 86% als „gut“ oder „besonders gut geeignet“ bewertet worden. Probleme ergaben sich durch die Änderung der Forschungsmeinung im Laufe der Zeit, was eine relevante Arrhythmie darstellt und was behandelt wird. So maß man noch 1990 Herzrhythmusstörungen ab Lown Klasse III so viel Bedeutung zu, dass man bei Symptomen eine Behandlungsindikation sah. Insbesondere die CAST-Studie von 1987 bis 1991 führte zu Veränderungen in der Sicht von Arrhythmien. Ab 1993 wird der Wandel dann auch in Lehrbüchern ersichtlich. 2004 werden unter ventrikulären Herzrhythmusstörungen nur noch Tachykardien mit einer Herzfrequenz von > 120/min. mit breitem QRS-Komplex angesehen. Vereinzelten VES wird keine Bedeutung mehr zugemessen. Als Risikofaktor für den plötzlichen Herztod wird heutzutage hauptsächlich eine eingeschränkte linksventrikuläre Ejektionsfraktion (EF) angesehen. Man geht heute davon aus, dass komplexe VES eher eine linksventrikuläre Dysfunktion anzeigen und nur für die Prognose von Patienten mit struktureller Herzerkrankung bedeutsam sind. Es wird in der vorliegenden Arbeit die neuere Definition von 2004 gewählt und bei Betrachtung von vereinzelten VES ein relevanter arrhythmischer Endpunkt (z.B. anhaltende Tachykardien, lebensbedrohliche Rhythmusstörungen) gefordert. Zum ersten Schwerpunkt zeigte sich bei den Studien zur Lebensqualität, dass Patienten mit ventrikulären und supraventrikulären Herzrhythmusstörungen eine eingeschränkte Lebensqualität aufweisen. Eine „kurative“ Therapie mit Ablation, die ohne weitere Medikamentengabe auskommt, führt dabei zu einer starken, stabilen Verbesserung der Lebensqualität, der Symptome, des psychologischen Distress und die Lebensqualität nach Ablation gleicht der von Gesunden. Bei Betrachtung der Studien zu nicht-kurativen Therapien von supraventrikulären Herzrhythmusstörungen drängt sich der Verdacht auf, dass sich eine vom Patienten empfundene Verbesserung des Befindens aus verschiedenen Komponenten zusammensetzt. Die Symptomkontrolle ist wichtig, und korrelierte gut mit Verbesserungen im sozialen Bereich und körperlichen Wohlbefinden, aber darüber hinaus scheinen auch psychische Mechanismen beteiligt zu sein. Hier könnte sich die weitere Forschung stärker und mit höheren Fallzahlen mit den psychischen Komponenten beschäftigen und versuchen, sie von den kardiologischen abzutrennen. Die objektiven, kardiologischen Parameter korrelierten nur schlecht mit den erhobenen Parametern der Lebensqualität und der Aktivität des täglichen Lebens bei supraventrikulären Arrhythmien. Die Studien zu ventrikulären Arrhythmien beschränken sich thematisch meist auf den Vergleich der Lebensqualität bei Therapie mit ICD oder Antiarrhythmika. Allgemein gaben jüngere Patienten mit ventrikulären Arrhythmien eine schlechtere Lebensqualität an als ältere. Eine größere Gesundheitsstörung und stärkerer Distress hatten eine geringere Lebensqualität zur Folge, und stärkere Medikamentennebenwirkungen hatten stärkeren Distress zur Folge. Die Sorgen wg. der Krankheit waren bei Baseline für Arrhythmiepatienten erhöht und führten zu einer schlechteren Lebensqualität. Problematisch bei den Originalarbeiten zu ventrikulären Arrhythmien war, dass meist gemischte Kollektive von Patienten nach Reanimation und ohne Reanimation untersucht wurden. Bei Bearbeitung der Originalarbeiten gewann man den Eindruck, dass diese beiden Untergruppen sich zu stark voneinander unterscheiden, als dass eine gemeinsame Betrachtung sinnvoll erscheint. Dies müssten geeignete Studien überprüfen. Zum zweiten Schwerpunkt unterscheidet man akute von chronischen psychischen Auslösern von ventrikulären Arrhythmien und dem plötzlichen Herztod. Von den akuten psychischen Zuständen scheinen 15 min. vor einer Herzrhythmusstörung bei einem hohen Prozentsatz der Patienten Ärger zu bestehen. Oft gingen vielfältige psychische Ausnahmezustände bis 24 Stunden einer ventrikulären Herzrhythmusstörung voraus. Dabei war Wut der Hauptaffekt, andere waren Depression, Angst, ängstliche Erwartung und Trauer. An chronischen Zuständen wurden folgende Konstrukte untersucht: psychischer Distress, Depression, Angst, Typ A/B-Verhalten, unterdrückter Ärger, soziale Unterstützung, der Wunsch nach Kontrolle und vitale Erschöpfung. Dabei ist die Depression am besten untersucht. Nach der Datenlage scheint es eine Korrelation mit arrhythmischen Ereignissen zu geben. Der psychische Distress, ein aus verschiedenen Variablen zusammengesetzter Parameter, ist nach Datenlage ebenfalls von Bedeutung. Für die Konstrukte Angst, unterdrückter Ärger, soziale Unterstützung, Wunsch nach Kontrolle und vitale Erschöpfung kann keine definitive Aussage gemacht werden, da sie zum Teil nur von einer Studie untersucht werden. Sie zeigen jedoch alle eine positive Korrelation zur Auslösung von Herzrhythmusstörungen. Von einer Relevanz des Typ A-Verhaltens kann man eher nicht ausgehen. Bei den Randthemen ist das Verhältnis von funktionellen Herzrhythmusstörungen zu relevanten Herzrhythmusstörungen erwähnenswert. So gibt es Hinweise, dass Patienten mit funktionellen Herzbeschwerden ängstlicher sind und sie erschienen hysterischer und stärker entfremdet im gesellschaftlichen Bereich. Jedoch werden bei Patienten mit relevanten Herzrhythmusstörungen ebenfalls oft die Beschwerden als psychisch abgetan. Als Forschungsdefizit fiel auf, dass die meisten guten Arbeiten zur Lebensqualität das Ziel haben, die Lebensqualität unter bestimmten Therapien zu bewerten. Originalarbeiten, die psychische Aspekte untersuchen, die bei Arrhythmiepatienten Einfluss nehmen auf die Lebensqualität oder das Befinden, gibt es nur wenige und es wird nur mit sehr kleinen Fallzahlen untersucht. Insgesamt fehlen größere, aussagekräftigere Studien dazu. Außerdem entsteht der Eindruck, dass viele Studien zur Lebensqualität Placebo-Effekte, z.B. der stärkeren Hinwendung zum Patienten bei bestimmten Therapien, nicht kontrollieren und schon gar nicht thematisieren. Es fehlen Untersuchungen, wo ausdrücklich geforscht wird, welche Komponenten bei hochsymptomatischen sowie auch mäßig symptomatischen Patienten mit supraventrikulären Rhythmusstörungen zur Besserung der Lebensqualität beitragen. Speziell zu den Arbeiten zu ventrikulären Arrhythmien wäre eine Untersuchung wünschenswert, inwieweit sich Patienten mit lebensbedrohlichen Herzrhythmusstörungen nach Reanimation von Patienten mit lebensbedrohlichen Herzrhythmusstörungen ohne Reanimation im Befinden, im kognitiven Erleben und in der Lebensqualität voneinander unterscheiden. Es müsste geklärt werden, ob die Reanimation ein so stark dominierender Faktor ist, dass er die kleineren Unterschiede zwischen Gesunden und Arrhythmiepatienten überlagert und verdeckt, wie es bei der vorliegenden Arbeit den Anschein hatte. Die Unterschiede von Frauen und Männern wurden von nur einer hochwertigen Arbeit zum Vorhofflimmern bearbeitet. Hier besteht noch Forschungsbedarf, da in anderen Feldern der Kardiologie durchaus Unterschiede im Erleben der Krankheit festgestellt wurden.
Tiere und Menschen sind für das tägliche Überleben auf eine schnelle Bewertung und flexible Nutzung verschiedenster Umweltreize angewiesen. So nutzen Vögel, wie viele andere Tiere, sowohl den Magnetsinn als auch die Geometrie der Umgebung und Landmarken, um sich im Raum zu orientieren. Auch erfolgt eine schnelle und komplexe Auswertung des visuellen Inputs, beispielsweise, um bei der Futtersuche selektiv Futterkörner finden zu können. Unklar ist bislang, wie Raum- und Objektinformation in den beiden Hirnhälften verarbeitet werden und wie die Aufgabenteilung zwischen den Hemisphären aussieht. Zur Klärung dieser Thematik soll die vorliegende Arbeit beitragen, wobei die Versuche so angelegt wurden, dass mögliche, grundlegende Verarbeitungsstrategien unter zwei Gesichtspunkten betrachtet werden konnten: Zum einen wurden den Tieren prinzipiell unterschiedliche Aufgaben präsentiert, um über verschiedene Bereiche auf dem Gebiet der Raum- und Objektverarbeitung hinweg vergleichen zu können. Zum anderen wurde mit den beiden zurzeit wichtigsten Vogelmodellen gearbeitet, der Brieftaube (Columba livia) und dem Haushuhnküken (Gallus gallus). Dies erlaubt einerseits den Vergleich eigener Ergebnisse mit anderen Befunden innerhalb derselben Art, während andererseits auch Parallelen und Unterschiede zwischen verschiedenen Arten betrachtet werden können. Vögel eignen sich hierbei aufgrund ihrer Anatomie besonders gut für die Erforschung von Hemisphärenunterschieden. Durch ein nahezu vollständiges Überkreuzen der Sehnerven und das Fehlen eines Corpus callosum oder anderer funktionell entsprechender Strukturen zum Informationsaustausch zwischen den Hirnhälften wird der visuelle Input eines Auges überwiegend in der gegenüberliegenden Hirnhälfte verarbeitet. Lateralisation kann daher sehr leicht durch Abdecken eines Auges untersucht werden. Bei Brieftauben wurde die Repräsentation von Geometrie und Landmarken untersucht (Kapitel 2). Die Tiere lernten hierbei, das Zentrum einer quadratischen Arena mithilfe rein geometrischer Hinweise oder mittels einer Kombination von Geometrie und Landmarken zu finden. Durch Verändern der verfügbaren Informationsart wurde untersucht, welche Informationen die Tauben zum Lokalisieren des Zentrums nutzten. Die Ergebnisse zeigen mit einer beidseitigen Verarbeitung ein qualitativ anderes Muster der Repräsentation von Rauminformationen als bislang bei anderen Arten, wie z.B. dem Haushuhnküken, beschrieben. Ferner hing der relative Gebrauch von Geometrie und Landmarken in starkem Maße von der vorherigen Erfahrung der Tauben ab. In einer weiteren Studie wurde die Verarbeitung von Magnetkompassinformation bei Brieftauben untersucht (Kapitel 3). Hierbei wurde erstmals erfolgreich ein Versuchsdesign zur Laboruntersuchung entwickelt. Auch bei dieser Raumkognitionsaufgabe wurde ein Unterschied zu der bei anderen Arten gefundenen linkshemisphärischen Spezialisierung zugunsten einer Verarbeitung sowohl in der linken als auch in der rechten Hirnhälfte gefunden. Während die Tauben hierbei mit der rechten Hirnhälfte lediglich die richtige Achse wahrnahmen, erfassten sie mit der linken Hemisphäre die spezifische Richtung. Dies könnte die gefundene linkshemisphärische Überlegenheit im Freiland erklären. Erstmals bei Vögeln wurde beim Haushuhnküken in einem weiteren Versuch die hemisphärische Verarbeitung von Raumfrequenzinformation untersucht, die sowohl für die visuelle Raumorientierung als auch für das Objekterkennen von großer Bedeutung ist (Kapitel 4). Die Raumfrequenz ist hierbei allgemein als ein Maß für die Wiederholungen einer Struktur über eine bestimmte Strecke definiert und kann zur Charakterisierung beliebig komplexer Objekte verwendet werden. Die Küken wählten zwischen simultan dargebotenen Objekten, deren Oberflächen sich hinsichtlich ihrer Raumfrequenzen unterschieden. Die Ergebnisse weisen auf eine Spezialisierung der linken Hirnhälfte für hohe und der rechten Hirnhälfte für niedrige Raumfrequenzen hin. Aufgrund der Parallelen zu Befunden beim Menschen könnte dies auf eine gemeinsame Grundlage der Lateralisationsentwicklung bei Wirbeltieren hindeuten. Während sich die vorangehenden Studien der vorliegenden Arbeit mit Spezialisierungen der linken und rechten Hirnhälfte bei der Verarbeitung von Raum- und Objektinformation befassten, wurde in Kapitel 5 das Zusammenwirken von linker und rechter Hirnhälfte bei der selektiven Nahrungssuche untersucht. Hierbei konnte am Beispiel des Haushuhnkükens erstmals bei Vögeln Hemisphärenkooperation gezeigt werden, was als Hinweis darauf zu werten ist, dass eine bilaterale Repräsentation im Vogelhirn in komplexen Situationen, die eine rasche und effiziente Beurteilung des gesamten überschaubaren Bereichs erfordern, möglich ist. Insgesamt zeigen die Ergebnisse für mehrere wichtige Fragen der Lateralisationsforschung wie die Erfahrungsabhängigkeit, den Nachweis unterschiedlicher Lateralisationsmuster bei Brieftauben und Haushuhnküken in der geometrischen Orientierung oder die Kooperation der Hirnhemisphären, dass bisherige Ansichten über die Verarbeitung von Raum- und Objektinformation bei Vögeln einer kritischen Überarbeitung bedürfen.
Die Rolle der löslichen Guanylatzyklase in der Signaltransduktion durch Superoxidanionradikale
(2005)
Im kardiovaskulären System ist die lösliche Guanylatzyklase (soluble guanylyl cyclase, sGC) ein Schlüsselenzym der •NO/cGMP-Signaltransduktion. Stickstoffmonoxid (•NO) aktiviert durch direkte Anbindung an das Häm-Eisen die Produktion von zyklischem 3’,5’-Guanosinmonophosphat (cGMP). In glatten Muskelzellen führt ein erhöhter cGMP-Spiegel zur Aktivierung von cGMP-abhängigen Proteinkinasen (cGK) und letztendlich zur Vaso-dilatation. Superoxidanionradikale (•O2-) sind an der Entstehung und Progression von Herz-Kreis¬lauferkrankungen beteiligt. Im vaskulären Gewebe stellt •O2- einen Gegenspieler zum •NO dar. So führt eine vermehrte Produktion von •O2- zu einer eingeschränkten Bioverfügbarkeit von •NO (•O2- + •NO -> ONOO-) (Ohara et al., 1993a). Im Rahmen dieser Arbeit sollte aufgeklärt werden, ob bei einer vaskulären Störung des •NO-Systems die Funktion der sGC durch •O2- auch direkt betroffen ist. Damit könnte dem Superoxid eine weit größere biologische Bedeutung zukommen als bisher angenommen, nämlich die Funktion als Signaltransduktionsmolekül mit der sGC als definiertem Rezeptor und Effektor. Die sGC-Aktivitätsuntersuchungen mit gereinigter sGC zeigten eine konzentrationsab¬hängige Hemmung der basalen und der YC-1- (100 µM) stimulierten (•NO-unabhängigen) sGC-Aktivität durch das •O2--generierende System Xanthinoxidase/Hypoxanthin (XO/HX) (IC50 (basal) = 0,0031 vs. IC50 (YC-1) = 0,022 mU/ml). Die Aufhebung dieser Hemmung durch Superoxiddismutase (SOD, 100 U/ml) deutete auf eine spezifische und schnell-reversible Hemmung der sGC-Aktivität durch •O2- hin. Die in-vitro gezeigte Hemmung der sGC-Aktivität durch •O2- konnte auch in-vivo nach¬gewiesen werden. Die Produktion von •O2- in kultivierten glatten Muskelzellen der Rattenaorta (VSMC) konnte mit Elektronenspinresonanz (ESR) und Lucigenin-abhängiger Chemilumineszenz gezeigt werden. Dabei wurde mit ESR eine ca. 5-fache Steigerung der basalen •O2--Produktion mit dem intrazellulären Redoxcycler Dimethoxynaphtochinon (DMNQ, 10 µM) beobachtet. Auch die Aktivierung membranständiger NADPH-Oxidasen durch die physiologischen Aktivatoren Angiotensin II (Ang II, 100 nM) und platelet-derived growth factor (PDGF, 50 ng/ml) führten zu einer ca. 2-fach gesteigerten •O2--Produktion. Die Hemmung der cGMP-Produktion durch •O2- in kultivierten VSMC konnte in-vivo mittels Enzym-Immuno-Assays (cGMP-EIA) [YC-1 (100µM) = 100 % vs. YC-1 + DMNQ (10 µM) = 21 % vs. YC-1 + PDGF (50 ng/ml) = 76,6 %] nachgewiesen werden. Zusätzlich wurde die Auswirkung von •O2- auf die cGMP-abhängige Signaltransduktion mit Immu¬noblotting (Western-Blot) von phosphoryliertem Vasodilator-stimulierten Phosphoprotein (VASP, vasodilator-stimulated phosphoprotein) gezeigt. Intrazelluläre •O2--Produktion durch Redoxcycling (DMNQ, 10 µM) reduzierte die YC-1-stimulierte Phosphorylierung von VASP um 44,4 %. In weiteren Untersuchungen sollte der molekulare Mechanismus der schnell-reversiblen Hemmung der sGC durch •O2- auf Ebene der sGC aufgeklärt werden. Dabei wies die direkte Detektion von Sulfinyl-Radikalen auf eine Oxidation von Proteinthiolen durch •O2- hin. Der spezifische Austausch von Cysteinen der sGC mittels Punktmutation und die Expression der sGC-Mutanten in COS1-Zellen zeigte, dass Thiol-Gruppen der sGC mit •O2- interagieren. Dabei stellte sich heraus, dass die sGC-Mutanten a1/b1C541S und a1C238S/b1 viel sensitiver auf •O2- (XO 3 mU/ml) reagieren als die Wildtyp-sGC (WTa1/WTb1 = -62 % vs. WTa1C238S/WTb1 = -93,7 % vs. WTa1/b1C541S = -90,2 %). Um zu untersuchen, ob das Häm-Eisen der sGC an der Aktivitätshemmung durch •O2- beteiligt ist, wurde einerseits das Häm entfernt (Tween 20), andererseits das Häm-Fe2+ zum Häm-Fe3+ oxidiert (NS2028). Beide Behandlungen führten zu einer weitgehend YC-1-insen¬sitiven sGC. Die mit Protoporphyrin IX (PIX) aktivierte Häm-freie sGC und die mit HMR3448 aktivierte Häm-oxidierte sGC wurden durch XO/HX wesentlich weniger potent gehemmt als die YC-1-sensitive sGC. Dieser Befund deutet auf eine Beteiligung des Häm-Eisens bei der Aktivitätshemmung der sGC durch •O2- hin. Die in dieser Arbeit gezeigte direkte und schnell-reversible Hemmung der sGC-Aktivität durch •O2- weist der löslichen Guanylatzyklase eine neue biologische Funktion zu. Die sGC könnte als Rezeptor- und Effektorenzym die Signaltransduktion des Signalmoleküls •O2- vermitteln.
Hintergrund: Das Burkitt Lymphom und das Diffus großzellige B-Zell Lymphom können überlappende morphologische und immunhistochemische Eigenschaften aufweisen. Eine Differenzierung beider Entitäten ist klinisch relevant. Mit Hilfe von Genexpressionsanalysen an kryo-konservierten Proben hochmaligner B-Zell Lymphome, bestehend aus Burkitt Lymphomen und Diffus großzelligen B-Zell Lymphomen, gelang 2006 die molekulare Definition des Burkitt Lymphoms (mBL) mit einer burkittspezifischen Gensignatur (Genchip-Klassifikator). Demgegenüber wurden Proben, die nicht diese Signatur aufwiesen als non-mBL bezeichnet. Proben, die weder mBL noch non-mBL klassifiziert wurden, wurden als intermediär eingestuft.
Ziel: Entwicklung einer Methode zur Unterscheidung von mBL und non-mBL mittels quantitativer Echtzeit-Polymerase Kettenreaktion (qPCR) durch die Etablierung eines Assays-Sets einer kleinen Anzahl von Genen der mBL-Signatur an formalinfixiertem, in paraffineingebettetem (FFPE) Gewebe.
Methoden: An 116 Proben, bestehend aus mBL, non-mBL und intermediären Fällen (entsprechend der Genchip-Klassifikation) wurden qPCR Messungen für sechs Gene und ein Referenzgen durchgeführt. Die Expressionsmessungen wurden auf den vorhandenen Genchip-Klassifikator projiziert.
Ergebnisse: 90 von 116 Proben konnten mit dem qPCR-Klassifikator klassifiziert werden. Bei 22 Proben kam es zu Messausfällen. 4 Fälle wurden bioinformatisch ausgesondert.13 von 14 mBL, 59 von 61 non-mBL und 8 von15 intermediären Fällen wurden identisch zu dem Genchip-Klassifikator bewertet.
Diskussion: Der entwickelte qPCR-Klassifikator ist eine objektive, schnelle und kosteneffiziente diagnostische Herangehensweise zur Bestimmung des mBL. Nicht alle FFPE-Proben waren mit dem qPCR Klassifikator eindeutig auswertbar und für eine Klassifikation zu nutzen. Eine Einflussgröße hierbei stellt das Alter der Proben dar. Mit Hilfe dieser Untersuchung können retrospektive Analysen durchgeführt werden. Der Klassifikator kann zusätzlich zur Morphologie und Immunhistochemie mit eindeutiger Klassifikation von 93% (mBL) und 97% (non-mBL) angewendet werden.
Prädiktion der Prognose von Patienten mit ischämischer Kardiomyopathie anhand der Spiroergometrie
(2009)
Hintergrund: Es ist ein wichtiges klinisches Ziel, Hochrisikopatienten unter den Patienten mit Herzinsuffizienz herauszufinden, da sie eine besonders intensive Therapie und engmaschige Kontrollen benötigen. Das Ziel dieser Arbeit war, bei Patienten mit Herzinsuffizienz infolge eines Myokardinfarktes Zuordnungen der klinischen Herzinsuffizienzmarker und Belastungsparameter hinsichtlich ihrer prognostischen Kraft zu definieren. Die Patienten erhielten alle eine optimale medikamentöse Behandlung mit sowohl Betablockern als auch ACE-Inhibitoren. Methoden: Bei 103 Patienten mit abgelaufenem Herzinfarkt wurde eine Spiroergometrie durchgeführt. Die von der Spiroergometrie abgeleiteten Parameter beinhalteten den peak O2, VO2 an der anaeroben Schwelle, den peak O2-Puls, die minimalen CO2 - und O2 -Äquivalente, VE/VCO2 und s1, ein submaximaler Parameter, der die initiale Steigung der VO2/VCO2-Kurve repräsentiert. s1 wurde bis dahin noch nie bei Patienten mit Herzinsuffizienz beschrieben. Ergebnisse: Das mediane Follow-up betrug 668 Tage. Bei 14 Patienten trat der kombinierte Endpunkt des kardiovaskulären Todes oder der Einweisung in das Krankenhaus auf Grund einer Verschlechterung der Herzinsuffizienz auf. Patienten mit und ohne Ereignis unterschieden sich hinsichtlich ihres Alters, der NYHA-Klasse, der LVEF und der NT-proBNP Serumspiegel signifikant. Die Patienten mit Ereignis hatten signifikant niedrigere peak VO2- und niedrigere s1-Werte. Der NT-proBNP-Serumspiegel, die NYHA-Klasse und die LVEF korrelierten signifikant mit peak VO2 , aber nicht mit s1. Nur NT-proBNP, peak VO2 und s1 waren jedoch statistisch unabhängige Prädiktoren von nachteiligen Ereignissen. Bei der multivariaten Analyse war s1 eine starke und unabhängige prognostische Variable mit insgesamt guter Sensitivität und Spezifität, vergleichbar mit dem NT-proBNP-Serumspiegel. Schlussfolgerung: Zusätzlich zu peak VO2, der eine entscheidende Rolle als spiroergometrischer Parameter auch bei Patienten unter Betablockertherapie spielt, ist der submaximale Parameter s1 ein wertvoller Prädiktor bei Patienten mit Herzinsuffizienz ischämischer Genese. Da s1 unabhängig von der maximal erreichten Belastungskapazität ist, könnte es für die Evaluation von Herzinsuffizienzpatienten, die entweder nicht an ihre maximale Belastungsschwelle gehen können oder wollen, von Nutzen sein.
In der vorliegenden Arbeit wurden retrospektiv Frauen mit polyzystischem Ovarialsyndrom (PCO-Syndrom) bzw. luteinisiertem nicht rupturiertem Follikel Syndrom (LUF-Syndrom) und unerfülltem Kinderwunsch untersucht, die sich einer operativen Therapie mittels Elektrokoagulation der Ovarialoberfläche unterzogen hatten. Ziel der Arbeit war es, die postoperative Schwangerschaftsrate (SR) nach Elektrokauterisierung der Ovarien zu ermitteln, diese mit den Schwangerschaftsraten anderer Therapieverfahren für das PCO bzw. LUF-Syndrom zu vergleichen sowie Faktoren aufzuzeigen, die die SR bei PCO bzw. LUF-Syndrom nach Elektrokauterisierung der Ovarien beeinflussen. Das Patientenkollektiv setzte sich aus 86 Patientinnen mit primärer oder sekundärer Sterilität zusammen. Dabei waren bei 40 der 86 Patientinnen anamnestisch frustrane medikamentöse, hormonelle Stimulationsbehandlungen durchgeführt worden. Weitere 46 Patientinnen stellten sich ohne hormonelle Vorbehandlung zur Sterilitätsdiagnostik vor. Das durchschnittliche Alter der Patientinnen lag bei 29,9±0,3 Jahren und hatte keinen signifikanten Einfluß auf die post-OP SR. Bei allen Patientinnen wurde eine Laparoskopie mit Chromopertubation durchgeführt und in gleicher Sitzung nach intraoperativer Bestätigung der Verdachtsdiagnose PCO-Syndrom/LUF-Syndrom eine Thermokoagulation der Ovarien angewandt. Bei 74% (n=64) der Patientinnen wurde ein PCO-Syndrom, bei 26% (n=22) ein LUF-Syndrom diagnostiziert. Postoperativ wurde für das Gesamtkollektiv nach Thermokoagulation eine kumulative Schwangerschaftsrate von 46,5 % (n=40) im Nachbeobachtungszeitraum von 46 Monaten erzielt (PCOSyndrom 45,3%, n=29; LUF-Syndrom 50%, n=11) erzielt. 52,5% (n=21) der Schwangerschaften wurden innerhalb der ersten 6 Monate, 25 % (n=10) innerhalb des ersten Jahres, 15 % (n=6) innerhalb der ersten 24 Monate und 7,5 % (n=3) nach mehr als 24 Monaten postoperativ erreicht. Die Abortrate lag insgesamt bei 15 % (n=6). Der initiale body-mass-index (BMI) der Patientinnen hatte keinen signifikanten Einfluß auf die postoperative SR. Die Art der Sterilität (primär/sekundär) beeinflußte in dieser Untersuchung die Schwangerschaftsrate nach Thermokoagulation der Ovarialoberfläche ebenfalls nicht signifikant. Sowohl bei primärer als auch bei sekundärer Sterilität konnten im Gesamt- sowie im PCO- und LUF-Kollektiv gleiche Schwangerschaftsraten von etwa 48% erzielt werden. Dabei lag insgesamt in beiden Kollektiven signifikant häufiger eine primäre als eine sekundäre Sterilität vor. Im Gesamtkollektiv konnte präoperativ bei 53% (n=46), postoperativ bei 65% (n=56) der Frauen eine Zyklusregelmäßigkeit nachgewiesen werden. In der Untergruppe der Frauen, bei denen eine Schwangerschaft eintrat (SRpos), stieg der Anteil der Frauen mit regelmäßigem Zyklus von 43% (n=17) präoperativ auf 63% (n=25) postoperativ an. Die postoperative Zyklusregelmäßigkeit der Frauen scheint sowohl im Gesamtkollektiv als auch im Kollektiv der postoperativ schwanger gewordenen Frauen durch die Elektrokoagulation der Ovarien - wenn auch nicht statistisch signifikant- günstig beeinflußt zu werden. Das gleichzeitige Vorhandensein einer Endometriose (28% der Patientinnen; n=24) hatte keinen signifikanten Einfluß auf die postoperative SR. Bei 7 % (n=6) der Patientinnen im Gesamtkollektiv konnte das gleichzeitige Auftreten von PCOSyndrom/LUF-Syndrom und Myomen diagnostiziert werden. Ein signifikanter Einfluß der Myome auf die postoperative SR konnte nicht nachgewiesen werden. Insgesamt waren jedoch bei LUF-Patientinnen signifikant häufiger Myome (18,1% ; n=4) nachzuweisen als bei PCO-Patientinnen (3,1%; n=2). Im Kollektiv der postoperativ nicht schwanger gewordenen Frauen hatten annähernd doppelt so viele Frauen anamnestisch einen Nikotinabusus wie im Kollektiv der postoperativ schwanger gewordenen Frauen. Im Alter zwischen 20-40 Jahren hat das Alter der Patientinnen zum Zeitpunkt des Eingriffes keinen signifikanten Einfluß auf die postoperative SR. Die in dieser Studie untersuchte operative Sterilitätsbehandlung mittels Elektrokoagulation der Ovarialoberfläche bei PCO-Syndrom und LUF-Syndrom ermöglichte insgesamt 46,5 % (n=40) der Frauen die Erfüllung des Kinderwunsches. Dieses Verfahren stellt damit bis zur Kenntnis einer kausalen Therapie für alle Frauen nach frustranen konservativen Hormonbehandlungsversuchen und für alle Frauen, die sich im Rahmen der Sterilitätsdiagnostik einer Laparoskopie unterziehen müssen ein erfolgreiches Therapiekonzept dar.
Die vorliegende Arbeit beschäftigt sich mit automatischer Informationssuche in heterogenen medizinischen Datenquellen. Informationssuche beschreibt einen Vorgang zur Deckung eines vorhandenen Informationsbedarfs, der aus einem Mangel an Wissen resultiert. In der modernen medizinischen Praxis sind aktuelle Informationen zur optimalen Behandlung eines Patienten wichtig. Fehlen diese Informationen, resultieren negative Folgen für den Behandlungsprozess. Im Hinblick auf den ableitbaren Erkenntnisgewinn ist die Fülle an aktuellen medizinischen Informationen, die heute über Literatur- und Wissensdatenbanken im Internet zur Verfügung steht, eigentlich wünschenswert. Das gezielte Auffinden relevanter Informationen, die zum Kenntnisstand des Arztes und dem Problem des Patienten passen, ist aber mühsam, fehlerbehaftet und zeitaufwändig. Der Aufwand, problemspezifische Informationen zu finden, wird zusätzlich dadurch vergrößert, dass die vorhandenen medizinischen Informationsanbieter unterschiedliche Anfragesprachen zum Zugriff auf die Daten bereitstellen und sich die Struktur der angebotenen Informationen von Anbieter zu Anbieter unterscheidet. Zur Lösung dieser Problematik werden Verfahren untersucht, mit denen die Informationsrecherche automatisiert werden kann. Ausgehend von den Informationen in der elektronischen Patientenakte und den persönlichen Interessen des Arztes werden Suchanfragen automatisch generiert, an verschiedene Informationsanbieter versandt, und die Suchergebnisse anschließend bedarfsgerecht gefiltert präsentiert. Die so gewonnenen Informationen ergänzen die Inhalte der elektronischen Patientenakte. Für die Generierung von problemspezifischen Suchanfragen wird ein komplexes, universelles Verfahren auf der Basis von dynamischen Textgenerierungsmethoden mittels XML-Strukturen entwickelt. Als Grundlage dient eine formal definierte Beschreibung des Informationsinteresses. Daten aus der elektronischen Patientenakte und dem Interessenprofil des Arztes werden über sog. Datencontainer in die Beschreibung eingebettet. Die Auswertung der Datencontainer ergibt eine allgemeine Anfrage, die erst in einem weiteren Schritt in die spezifische Anfragesyntax der einzelnen Informationsanbieter transformiert wird. Als Informationsanbieter kommen sowohl Anbieter medizinischer Literaturdatenbanken als auch eine medizinische Suchmaschine für das World Wide Web zum Einsatz. Das Konzept der virtuellen Datenbank wird verwendet, um aus den Antworten der Informationsanbieter die jeweils erforderlichen Informationsbestandteile zu extrahieren und in ein universelles XML-Dokumentenformat zu integrieren. Der Arzt, der mit dem System arbeitet, erhält als Ergebnis einer Recherche eine einheitliche, übersichtsartige Darstellung der Suchergebnisse, unabhängig von der Struktur der Informationen. Die Realisierung erfolgt als Prototyp eines Informations-Agentensystems, das aus einer interaktiven und einer automatischen, im Hintergrund arbeitenden Komponente besteht.
Nichtmethan-Kohlenwasserstoffe sind in Gegenwart von Stickstoffoxiden (NO, NO2) wichtige Vorläufersubstanzen von troposphärischen Photooxidantien (z. B. Ozon), die beim photochemischen Metabolismus gasförmiger organischer Verbindungen durch Hydroxylradikale (OH) unter Einwirkung von Sonnenlicht gebildet werden. Experimenteller Beitrag dieser Arbeit ist die Charakterisierung, Modifizierung, Optimierung und Qualitätssicherung des zur Messung von leichtflüchtigen atmosphärischen C2-C10 Kohlenwasserstoffen verwendeten mobilen Gaschromatographen (GC) mit Flammenionisationsdetektor (AirmoVOC HC2010). Im Rahmen des vom BIvIBF geförderten Berlin Ozonexperiments BERLIOZ, das im Sommer 1998 im Großraum Berlin/Brandenburg stattfand, wurden an einer ländlichen Bodenstation in Blossin, 40 km südöstlich Berlins, in situ Messungen von 69 Nichtmethan-Kohlenwasserstoffen durchgeführt. im Vorfeld der Feldkampagne wurde der GC einer umfangreichen Qualitätssicherung unterzogen. Bei einer Immissionsvergleichsmessung, die unter Beteiligung aller Arbeitsgruppen stattfand, ergab sich eine mittlere konzentrationsabhängige Abweichung des HC-2010 von ± 16% und ein konstanter Offset (Bias) von 0,71 nmol/m3 (16 pptv) vom Referenzmeßverfahren des Forschungszentrums Jülich. Die Geräteblindwerte waren für die meisten Analyten kleiner 0,3 nmol/m3 (6 pptv). Aus der dreifachen Standardabweichung der Blindwerte ergaben sich die für Außenluftuntersuchungen geforderten Nachweisgrenzen um 0,4 nmol/m3 (10 pptv). Im zweiten Teil dieser Arbeit wurde der BERLIOZ-Datensatz hinsichtlich einer Bestandsaufnahme ausgewertet. Die beobachteten Konzentrationen der einzelnen Kohlenwasserstoffe wiesen jeweils eine logarithmische Normalverteilung auf, die Charakterisierung des Datensatzes erfolgte deshalb nicht anhand von arithmetischem Mittelwert und Standardabweichung, sondern mit geometrischem Mittelwert und multiplikativer Standardabweichung. Anhand der OH-Verlustrate wurde der Einfluß der verschiedenen Kohlenwasserstoffe auf die lokale Bildung von Photooxidantien untersucht. Der natürliche Kohlenwasserstoff Isopren lieferte mit 70% den weitaus größten mittleren Beitrag zur Photooxidantienproduktion am Boden. In der Grenzschicht verlor isopren allerdings seine dominante Rolle. Sein Beitrag schrumpfte mit zunehmender Höhe auf 20-40%. in der in 200 m Höhe beobachteten Abluftfahne Berlins verursachten anthropogene Kohlenwasserstoffe rund 2/3 der OH-Verlustrate, wobei die reaktiven C3/C4-Alkene alleine bereits 50% beitrugen.
In der vorliegenden Arbeit wird die Einbindung der Navigation in die operative Versorgung der Femurfrakur beschrieben und mit der konventionellen Methode verglichen. Die Marknagelung ist eine von Prof. Dr. G. B. G. Küntscher in den 40er Jahren des 20ten Jahrhunderts entwickelte Behandlung zur Bruchversorgung und Durchführung von Arthrodesen. Die Navigation ist eine Variante der computer-assistierten Chirurgie. Diese Technologien haben in den 90er Jahren des 20ten Jahrhunderts Einzug in die Operationssäle gehalten. Die Navigationssysteme erfahren eine fortwährende Entwicklung und Ausweitung des Einsatzgebietes. Sie konnten sich bis jetzt jedoch nicht, trotz der Möglichkeiten, gegenüber den bisherigen konventionellen Entwicklungen im Bereich der intramedullären Marknagelversorgung durchsetzen. Den Vorzügen der Navigation, der Reduktion der Strahlenbelastung und Erhöhung der Präzision, werden hohe Anschaffungskosten, eine lange Einarbeitungszeit, längere Vorbereitungs- und Operationszeiten und der personelle Mehraufwand gegenüber gestellt. Ein ausführlicher Vergleich der Navigation mit dem konventionellen Verfahren existiert in der Fachliteratur bis jetzt nur auf einzelne Arbeitsschritte bezogen, wie z.B. dem Vorgang der distalen Verriegelung. In unseren Untersuchungen wurden 22 Patienten mit der Navigation versorgt. Die konventionelle Methode wurde bei 12 Patienten verwendet. Alle entscheidenden Schritte der Femurmarknagelversorgung, die Nageleintrittsbestimmung, die Frakturreposition und die distale Verriegelung wurden in der Dauer und Strahlenbelastung erfasst, ebenso die Gesamtoperationszeit und Gesamtstrahlenbelastung einander gegenübergestellt und mit den vorhandenen Daten in der Fachliteratur verglichen. Die Verwendung der Navigation hat den Arbeitsschritt des Nageleintritts verlängert (23,3 min vs 14,8 min). Gegenüber der konventionellen Methode konnte eine Reduktion der Röntgenzeit um 22 % (0,39 min vs 0,5 min) bei diesem Vorgang beobachtet werden. Die navigierte Frakturreposition dauerte im Durchschnitt 25,1 min vs 16,8 min bei der konventionellen Methode. Die Strahlenbelastung konnte um 70 % auf 0,39 min vs 1,28 min gesenkt werden. Die Rate der geschlossenen Frakturrepositionen lag bei 86 % gegenüber 67 % bei dem konventionellen Vorgehen. Die distale Verriegelung mit zwei Bolzen konnte mit der Navigation in 28,9 min vs 13,9 min bei der konventionellen Methode durchgeführt werden. Die Röntgenzeit wurde mit Hilfe der Navigation um 50 % reduziert (0,39 min vs 0,78 min). Die Präzision bei der distalen Verriegelung konnte mit dem Verfahren der Navigation gegenüber der konventionellen Methode und dem strahlendurchlässigen Winkelgetriebe nur geringfügig gesteigert werden (93 % bei 44 Bolzen vs 91 % bei 23 Bolzen). Die Gesamtoperationszeit der navigierten Fälle war durchschnittlich 43,2 min länger als die konventionell behandelten Fälle (150,1 min vs 106,9 min). Die Gesamtstrahlenzeit konnte mit der Navigation gegenüber der konventionellen Methode um 37,5 % gesenkt werden (2,5 min vs 4 min). Die Vorteile der Navigation zeigten sich vorallem bei der Frakturreposition. Hier konnte die Strahlenbelastung deutlich gesenkt werden (70 %, 0,39 min vs 1,28 min). Die Rate der erfolgreichen geschlossenen Manöver wurde gegenüber der konventionellen Methode gesteigert (86 % vs 67 %).
Bei der distalen Verriegelung haben wir eine Reduktion der Dauer einer Bohrung mit Navigation um 14 % gegenüber der konventionellen Methode mit dem strahlendurchlässigen Winkelgetriebe festgestellt (3,6 min vs 4,2 min, gemessen Haut-inzision und Bohrung bis Gegencorticalis). Die Gesamtstrahlenzeit für den Vorgang der distalen Verriegelung mit zwei Bolzen und sich anschließender Lagekontrolle zeigte sich mit der Navigation um 50 % redziert (0,39 min vs 0,78 min). Ein zeitlicher Mehraufwand wurde durch die Vorbereitung der Navigation bei allen Arbeitsschritten festgestellt.
Mechanistic and structural insights into the quality control of the MHC I antigen processing pathway
(2022)
The human body is permanently exposed to its environment and thus to viruses and other pathogens, which require a flexible response and defense. Alongside to the innate immune system, the adaptive immune system provides highly specialized protection against these threats. The major histocompatibility complex class I (MHC I) antigen presentation system is a cornerstone of the adaptive immune system and a major constituent of cellular immunity. Pathogens such as viruses that invade a cell will leave traces in the form of proteins and peptides which are degraded and loaded onto MHC I molecules. MHC I peptide loading is performed by peptide loading complex (PLC) in the membrane of the endoplasmic reticulum as part of a multifaceted and comprehensive quality control machinery. Monitored by multiple layers of quality assurance, the MHC I molecules consequently display the immune status of the cell on its surface. In this context, the captured fragment of the virus serves as a call for help issued by the cell, alerting the adaptive immune system to the infection to mount an appropriate immune response.
The three-dimensional structure as well as the mechanistic details of parts of this complex machinery were characterized in the context of this dissertation. Among other tools, light-modulable nanotools were developed in this thesis, which permit external regulation of cellular processes in temporal and spatial resolution. Furthermore, methods and model systems for the biochemical characterization of cellular signaling cascades, proteins, as well as entire cell organelles were developed, which are likely to influence the field of cellular immunity and protein biochemistry in the future.
This cumulative work comprises a total of six publications whose scientific key advances will be briefly outlined in this abstract. In the introduction, the scientific background as well as the current state of research and methodological background knowledge are conveyed. The results section condenses the main aspects of the publications and links them to each other. Further details can be retrieved from the attached original publications.
In “Semisynthetic viral inhibitor for light control of the MHC I peptide loading complex, Winter, Domnick et al., Angew Chem Int Ed 2022” a photocleavable viral inhibitor of the peptide loading complex was produced by semi-synthesis. This nanotool was shown to be suitable for both purifying the PLC from human Raji cells as well as reactivating it in a light-controlled manner. Thus, this tool establishes the isolation of a fully intact and functional peptide loading complex for biochemical characterization. In addition, a novel flow cytometric analysis pipeline for microsomes was developed, allowing cellular vesicles to be characterized with single organelle resolution, similar to cells.
In “Molecular basis of MHC I quality control in the peptide loading complex, Domnick, Winter et al., Nat Commun 2022” the peptide loading complex was reconstituted into large nanodiscs, and a cryo-EM structural model of the editing module at 3.7 Å resolution was generated. By combining the structural model with in vitro glycan editing assays, an allosteric coupling between peptide-MHC I assembly and glycan processing was revealed, extending the known model of MHC I loading and dissociation from the PLC. These mechanisms provide a prototypical example for endoplasmic reticulum quality control.
In a related context, in “Structure of an MHC I–tapasin–ERp57 editing complex defines chaperone promiscuity, Müller, Winter et al., Nat Commun 2022” a recombinantly assembled editing module comprised of MHC I-tapasin-ERp57 was crystallized for X-ray structural biology. The resulting crystal structure at a resolution of 2.7 Å permitted the precise identification of characteristic features of the editing module and particularly of the peptide proofreading mechanism of tapasin. This study provided pivotal insights into the tapasin-mediated peptide editing of different MHC I allomorphs as well as similarities to TAPBPR-based MHC I peptide proofreading.
In “TAPBPR is necessary and sufficient for UGGT1-mediated quality control of MHC I, Sagert, Winter et al. (in preparation)” novel insights concerning the peptide proofreader TAPBPR and its close interplay with the folding sensor and glucosyltransferase UGGT1 were obtained. It was shown that TAPBPR is an integral part of the second level of endoplasmic quality control and is indispensable for effective MHC I coordination by UGGT1.
In “Light-guided intrabodies for on-demand in situ target recognition in human cells, Joest, Winter et al., Chem Sci 2021” intracellular nanobodies were equipped with a photocaged target recognition domain by genetic code expansion via amber suppression. These intrabodies, acting as high-affinity binding partners endowed with a fluorophore, could be used in a light-triggered approach to instantaneously visualize their target molecule...
Die Menge digital zur Verfügung stehender Dokumente wächst zunehmend. Umso wichtiger sind adäquate Methoden, um sehr große Dokumentkollektionen durch-suchen zu können. Im Gegensatz zur exakten Suche, bei der nach Dokumenten mit bekannten Dateinamen gesucht wird, werden Techniken des Information Retrieval (IR) dazu eingesetzt, relevante Ergebnisse zu einer Anfrage ausfindig zu machen. Seit einigen Jahren werden verstärkt Kollektionen mit strukturierten Dokumenten durch¬sucht, insbesondere seit Durchsetzung der eXtensible Markup Language (XML) als offizieller Standard des World Wide Web Consortiums (W3C). Mittlerweile gibt es eine Reihe von Forschungsansätzen, bei denen IR-Methoden auf XML-Dokumente angewendet werden. XML Information Retrieval (XML-IR) nutzt dabei die Struktur der Dokumente, um die Suche nach und in denselben effektiver zu machen, d.h. die Qualität von Suchergebnissen zu verbessern, beispielsweise durch Fokussierung auf besonders relevante Dokumentteile. Die bisherigen Lösungen beziehen sich jedoch alle auf zentralisierte Stand-Alone Suchmaschinen zu Forschungszwecken. Sehr große, über eine Vielzahl von Rechnern verteilte Datenkollektionen lassen sich damit nicht durchsuchen. Techniken für verteiltes XML-IR werden in der Praxis auch dort benötigt, wo das zu durchsuchende System aus einer Vielzahl lokaler, heterogener XML-Kollektionen besteht, deren Benutzer ihre Dokumente nicht auf einem zent¬ralen Server speichern wollen oder können; solche Benutzer schließen sich häufig in Form eines dezentralen Peer-to-Peer (P2P) Netzes zusammen. Dennoch gibt es derzeit weder für Systeme im Allgemeinen, noch für P2P-Systeme im Speziellen Suchmaschinen, mit denen nach relevanten Dokumenten gesucht werden kann. In der vorliegenden Dissertation wird daher am Beispiel von P2P-Netzen erstmalig untersucht, inwiefern XML-IR in verteilten Systemen überhaupt effektiv und effizient möglich ist. Dazu wird ein allgemeines Architekturmodell für die Entwick-lung von P2P-Suchmaschinen für XML-Retrieval entworfen, in dem Funktionalität aus den Bereichen XML-IR und P2P in abstrakten Schichten angeordnet ist. Das Modell wird als Grundlage für den Entwurf einer konkreten P2P-Suchmaschine für XML-IR verwendet. Es werden dazu verschiedene Techniken für verteiltes XML-IR entwickelt, um die einzelnen Phasen der Suche umzusetzen: Indizierung der Doku¬mente, Routing der Anfragen, Ranking geeigneter Dokumente und Retrieval von Ergebnissen. Insbesondere die Problematik von aus mehreren Suchbegriffen bestehenden Multitermanfragen sowie Verteilungsaspekte werden berücksichtigt. Neben der zu erzie-lenden Suchqualität steht vor allem der notwendige Kommunikations¬aufwand im Vordergrund. Die entwickelten Methoden werden in Form einer P2P-Suchmaschine für verteiltes XML-Retrieval implementiert, die aus fast 40.000 Zeilen Java-Code besteht. Diese Suchmaschine namens SPIRIX kann voll-funktionsfähig nach XML-Dokumenten in einem P2P-Netz suchen und deren Relevanz inhaltsbasiert bewerten. Für die Kommunikation zwischen Peers wird ein P2P-Protokoll namens SpirixDHT entworfen, das auf Basis von Chord arbeitet und speziell für den Einsatz von XML-IR angepasst wird. Für die Evaluierung der entworfenen Techniken wird zunächst die Suchqualität von SPIRIX nachgewiesen. Dies geschieht durch die Teilnahme an INEX, der internationalen Initiative für die Evaluierung von XML-Retrieval. Im Rahmen von INEX werden jedes Jahr XML-IR Lösungen weltweit miteinander verglichen. Für 2008 konnte mit SPIRIX eine Suchpräzision erreicht werden, die vergleichbar mit der Qualität der Top-10 XML-IR Lösungen ist. In weiteren Experimenten werden die entworfenen Methoden für verteiltes XML-Retrieval mit INEX-Werkzeugen evaluiert; dabei werden jeweils die erzielte Such-qualität und der notwendige Aufwand gegenübergestellt. Die gewonnenen Er¬kenn-tnisse werden auf den Routingprozess angewendet; hier ist speziell die Frage-stellung interessant, wie XML-Struktur zur Performanzverbesserung in Bezug auf die Effizienz eines verteilten Systems genutzt werden kann. Die Evaluierung der konzi¬pier¬ten Routingtechniken zeigt eine signifikante Reduzierung der Anzahl versendeter Nachrichten, ihrer Größe und somit der Netzlast, wobei gleichzeitig eine Steigerung der Suchqualität erreicht wird. Im Rahmen der Dissertation wird somit der Nachweis erbracht, dass verteiltes XML-IR sowohl effektiv als auch effizient möglich ist. Zugleich wird gezeigt, wie die Ver¬wendung von XML-IR Techniken beim Routing der Anfragen dazu beitragen kann, den notwendige Suchaufwand – insbesondere den für die Kommunikation zwischen Peers – so weit zu reduzieren, dass das System auch zu einer großen Anzahl von teil¬nehmenden Peers skaliert und trotzdem eine hohe Suchqualität aufrecht erhalten werden kann.
The balance between peripheral T-cell reactivity and self-tolerance is achieved during T-cell development in the thymus. During thymic development T-cell sensitivity to self-antigens drives their selection and is dynamically regulated via multiple mechanisms. The microRNA miR-181 has been implicated as a post-transcriptional modulator of T-cell sensitivity due to its suppression of several negative regulators of T-cell receptor (TCR) signalling. By tuning developing thymocytes to be exquisitely sensitive to signals transduced through their TCR, miR-181 has previously been shown to be essential for the agonist selection of invariant natural killer T (iNKT) cells. In this thesis, we extend the knowledge on the developmental control elicited by miR-181 in the thymus to cover mucosal-associated invariant T (MAIT), regulatory T (Treg) and conventional T cells. Using a germline knock-out of mature miR-181a/b-1, we could show that all agonist-selected T cell populations are critically dependant on miR-181a/b-1, noting an absence of MAIT and a reduction of thymic-derived Tregs in miR-181a/b-1-deficient mice. Furthermore, we provided evidence that miR-181 is also required for the negative selection of conventional T cells, with miR-181a/b-1-deficient mice presenting with a near absence of apoptotic markers. Therefore, by heightening the TCR sensitivity to self-antigens, miR-181a/b-1 aids in the detection and subsequent elimination of autoreactive thymocytes. In addition, we characterised the murine primary miR-181a/b-1 transcript, which surprisingly has a transcription start site (TSS) more than 70kB upstream of the mature miRNA sequences. This shall hopefully lead to future research aimed at deciphering the upstream regulatory networks that promote dynamic miR-181a/b-1 expression in developing thymocytes. In summary, we present here a single miRNA subset with broad implications in T-cell development. In disagreement with central dogma that individual miRNAs generally provide weak to moderate modulation over cellular pathways, we showcase the miR-181 family subset, miR-181a/b-1, as an efficient regulator of TCR signalling pathways. Due to the sensitive nature of TCR signalling during thymocyte selection, miR-181a/b-1 elicits gross effects, which are essential for agonist selection, central tolerance and generating a functional self-tolerant peripheral T cell repertoire. We therefore conclude that miR-181a/b-1 is fundamental in T-cell development as a whole.
The genus Giraffa likely evolved around seven million years ago in Indo-Asia and spread over the Arabian-African land bridge into Eastern Africa. The oldest fossil of the African lineage was found in Kenya and dated to 7-5.4 Mya. Beside modern giraffe, four additional African species have likely existed (G. gracilis, G. pygmaea, G. stillei, and G. jumae). Based on their morphological similarities, G. gracilis is often considered to be the closest relative of the modern giraffe. Nevertheless, the phylogeny within the genus Giraffa is largely unresolved.
Modern giraffe (Giraffa sp.) have been neglected by the scientific community for a long time and still very little is known about their biology. Traditionally, present-day giraffe have been considered a single species (G. camelopardalis) which is divided into six to eleven subspecies, with nine subspecies being the most accepted classification. This classification was based on morphological differences and geographic ranges. However, recent genetic analyses found hidden diversity within Giraffa and proposed four genetically distinct giraffe species (G. camelopardalis, G. reticulata, G. tippelskirchi, G. giraffa) with presumably little gene flow among them.
Gene flow on a population level is the exchange of genetic information among populations facilitated by the migration of individuals between populations. Additionally, it is an important criterion to delineate species, because many species concepts, especially the Biological Species Concept, rely on the concept of reproductive isolation. Yet, new genetic methods are identifying an increasing number of species that show signs of introgressive hybridization or gene flow among them. Therefore, strict reproductive isolation cannot always be applied to delineate species, especially in young, probably still diverging, species such as giraffe.
Therefore, giraffe are ideal study organisms to investigate the level of gene flow in recently diverged species with adjacent or potentially overlapping ranges. Furthermore, their recent classification as “Vulnerable” by the IUCN and their unreliable distribution maps require the genetic evaluation of their population structure, distribution and conservation status.
In Publication 1 (Winter et al. (2018a), Ecological Genetics and Genomics, 7–8, 1–5), I studied the distribution and matrilineal population structure of Angolan giraffe (G. giraffa angolensis) using sequences from the cytochrome b gene (1,140 bp) and the mitochondrial control region for individuals from across their known range and beyond, and additionally including individuals from all known giraffe species and subspecies. The reconstruction of a phylogenetic tree and a mitochondrial haplotype network allowed to identify the most easterly known natural population of Angolan giraffe, a population that was previously assigned to their sister-subspecies South African giraffe (G. giraffa giraffa), indicating the limit of classification by morphology and geography. Furthermore, the analyses show that Namibia’s iconic desert-dwelling giraffe population is genetically distinct, even from the nearest population at Etosha National Park, suggesting very limited, if any, natural exchange of matrilines. Yet, no geographic barriers are known for this region that would prevent genetic exchange. Therefore, the two populations are likely on different evolutionary trajectories. Limited individuals with an Etosha haplotype further suggest that translocation of Etosha giraffe into the desert population had only a minor impact on the local population. Two separate haplogroups within Etosha National Park suggest an “out of Etosha” radiation of Angolan giraffe to the East followed by a later back-migration.
In Publication 2 (Winter et al. (2018b), Ecology and Evolution, 8(20), 10156–10165), I investigated the genetic population structure of giraffe across their range (n = 137) with focus on the amount of gene flow among the proposed giraffe species with a 3-fold increased set of nuclear introns (n = 21). Limited gene flow of less than one effective migrant per generation, even between the closely related northern (G. camelopardalis) and reticulated giraffe (G. reticulata) further supports the existence of four giraffe species by a different methodology, gene flow. This is significant because most species concepts build on reproductive isolation. Furthermore, this result is corroborated by four distinct major clades in a phylogenetic tree analysis, and distinct clusters in Principal Component Analysis and STRUCTURE analysis. All these analyses suggest a low level of genetic exchange among the four giraffe species and, therefore, a high degree of reproductive isolation in accordance with the Biological Species Concept (BSC). In Addition, only a single individual in 137 was identified as being potential of natural hybrid origin, which promotes the four-species concept further. ...
Eine ausgeprägte Skelettmuskulatur spielt in vielerlei Hinsicht eine wichtige Rolle, sei es aus präventiver, um im Alltag den passiven Bewegungsapparat zu entlasten, oder aus leistungssportlicher Sicht, die Muskelmasse der entscheidende Faktor für ein ausgeprägtes Maximalkrafhiveau ist. Eine Analyse der wissenschaftlichen Literatur bringt ein unbefriedigendes Bild des Kenntnisstandes über die Belastungsnormative bzw. ihre optimale Abstimmung aufeinander, um auf möglichst effektive Weise Muskelwachstum zu erzeugen, zu Tage. Ein großer Teil des heutigen Kenntnisstandes beruht auf Erfahrungen, die über Jahrzehnte irn Kraftsport (Gewichtheben, Kraftdreikampf, Bodybuilding) gesammelt wurden. Aus diesem Grund soll diese Untersuchung, in der das Belastungsnormativ der Belastungshäufigkeit im Zentrum des Interesses steht, ein Schritt in Richtung einer Erweiterung des Wissensstandes und einer Optimierung des Krafttrainings zur Entwicklung von Muskelmasse sein. An der Studie nahmen 66 Probanden teil. Die eine Hälfte bestand aus Krafttrainingsanfängern, die andere aus Kraftsportlern mit mindestens zwei Jahren Krafttrainingserfahrung. Trainiert wurde ein-, zwei- und dreimal pro Woche, so dass sich sowohl die Anfänger als auch die Fortgeschrittenen auf jeweils drei Gruppen verteilten. Das Trainingsprogramm für die Armbeuger (M. biceps brachii, M. brachialis, M. brachioradialis) dauerte acht Wochen und zog eine zweiwöchige Detrainingsphase nach sich, in der zwei Tests durchgeführt wurden. Die Trainingseinheiten wurden, soweit möglich, immer im gleichen zeitlichen Abstand voneinander durchgeführt. Das Training bestand aus fünf Sätzen bei drei Minuten interserieller Pause. Jeder Satz wurde bis zum Muskelversagen ausgeführt. Der letzten eigenständig ausgeführten Wiederholung folgten zwei weitere mit Hilfestellung. Die Wiederholungszahl pro Satz sollte im Bereich von acht bis zwölf liegen. Aufgrund der unvollständigen Regeneration innerhalb der Belastungspause musste von Satz zu Satz das Gewicht reduziert werden, um im angestrebten Wiederholungsbereich zu bleiben. War es dem Proband möglich, mit einer Last zwölf Wiederholungen durchzuführen, wurde das Gewicht für den nächsten Satz beibehalten und im nächsten Training um 2,5 kg erhöht. Für die Erhebung der Daten wurden sechs Termine anberaumt. Vor Trainingsbeginn wurde als erstes mittels Kernspintomographie das Muskelvolumen bestimmt. Am folgenden Tag fanden dann die Krafttests statt (dynamisches und isometrisches Maximum; maximale Wiederholungszahl mit 80% des dynamischen Maximums). Nach vier Trainingswochen wurde ein Zwischentest durchgeführt, der nur den Krafttest beinhaltete. Diese Tests wurden erneut drei Tage nach dem letzten Training durchgeführt. Um sicher zu gehen, dass die Armbeugemuskulatur vollkommen erholt war und eventuell auftretende Detrainingseffekte erfasst werden konnten, wurden die abschließenden Krafttests erst ,vierzehn Tage nach dem letzten Training durchgeführt. Der zweite Kernspintomographietermin erfolgte dreizehn Tage nach dem letzten Training. ....
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Stressorinduzierte ökotoxikologische Effekte und Genexpressionsveränderungen bei Chironomus riparius
(2008)
Die Effekte von Stressoren auf Chironomus riparius wurden im Lebenszyklustest und auf genomischer Ebene mit dem Ziel untersucht, ein auf einem DNA-Mikroarray („ChiroChip“) basierendes Screeningverfahren zu entwickeln. Die empfindlichsten Endpunkte der Lebenszyklustests waren die Mortalität, der Anteil fruchtbarer Eigelege, der mittlere Schlupfzeitpunkt der Weibchen sowie das Gewicht der Männchen. Temperaturveränderungen um ± 6°C gegenüber einer normalen Hälterungstemperatur von 20°C führten in allen Endpunkten zu hochsignifikanten Effekten. Eine LC10 konnte nur für die Salinität berechnet werden (0,66‰, KI: 0,26 − 1,68‰). Aufgrund der nicht-linearen Konzentrations-Wirkungs-Beziehungen konnte nur für den mittleren Schlupfzeitpunkt der Weibchen nach einer Exposition gegenüber Cadmium eine EC50 (0,53 mg/kg, KI: 0,29 − 0,97 mg/kg) bestimmt werden. In den Versuchen mit Methyltestosteron, Ethinylöstradiol, Carbamazepin, Fluoxetin, Blei und Tributylzinn (mit denen auch molekularbiologische Untersuchungen durchgeführt wurden) waren die empfindlichsten Endpunkte die Mortalität, der Anteil fruchtbarer Eigelege, der mittlere Schlupfzeitpunkt der Weibchen sowie die Populationswachstumsrate. Carbamazepin (CBZ) wirkte schlupfverzögernd bei den Weibchen. 10 mg CBZ/kg führte zu einer höheren Mortalität, weniger Eigelegen, die vermehrt unfruchtbar waren, sowie zu einer geringeren Populationswachstumsrate. Fluoxetin (FX) wirkte bei beiden Geschlechtern schlupfverzögernd. 0,9 mg FX/kg führte zu einer erhöhten Mortalität, weniger und vermehrt unfruchtbaren Eigelegen und einer geringeren Populationswachstumsrate. In der höchsten Konzentration (5,9 mg/kg) waren die Weibchen leichter als die Kontrolltiere. Tributylzinn (in µg Sn/kg angegeben) bewirkte eine höhere Mortalität und geringere Populationswachstumsrate bei 100 µg Sn/kg und führte zu einer Verzögerung im Schlupfverlauf bei den Weibchen. Bei 160 µg Sn/kg gab es weniger Eigelege, die vermehrt unfruchtbar waren. Die Männchen, die gegenüber Konzentrationen von 120 und 160 µg Sn/kg exponiert wurden, waren leichter als die Kontrolle. Expositionen gegenüber Blei (Pb) in Konzentrationen von 0,65 − 65 mg/kg führten bei 6,5 mg Pb/kg zu einer erhöhten Mortalität und zu mehr unfruchtbaren Gelegen. Bei 0,65 mg Pb/kg waren die Männchen leichter und bei 6,5 mg Pb/kg schwerer. Die Anzahl der fruchtbaren Gelege pro Weibchen war bei 3,25 und 6,5 mg Pb/kg geringer als in der Kontrolle. Die gegenüber 17alpha-Methyltestosteron (MET) exponierten Mücken hatten geringere Mortalitäten als in der Kontrolle und zeigten einen verfrühten Schlupf beider Geschlechter. Ab 27 µg MET/kg gab es weniger unfruchtbare Gelege, leichtere Männchen sowie erhöhte Populationswachstumsraten. 17alpha-Ethinylöstradiol (EE2) führte zu einem verfrühten Schlupf bei beiden Geschlechtern sowie zu erhöhten Populationswachstumsraten. Bei 9 µg EE2/kg gab es weniger unfruchtbare Gelege. Die Exposition von Chironomus-Larven gegenüber Methyltestosteron, Ethinylöstradiol, Fluoxetin, Carbamazepin, Tributylzinn und Blei führte zur differenziellen Expression von neun (Methyltestosteron) bis 49 (Carbamazepin) Genen. Bei der Untersuchung der exprimierten Proteine fällt auf, dass kaum bekannte Stressproteine (z.B. Glutathion-S-Transferase oder Cytochrom P450) differentiell reguliert wurden. Bei der Exposition wurden verschiedene Prozesse durch eine veränderte Genexpression beeinflusst. Eine Exposition gegenüber Methyltestosteron führte zu einer Beeinträchtigung von drei identifizierten biologischen Prozessen, während bei den anderen Substanzen sieben bis acht Prozesse beeinflusst waren. Die am häufigsten beeinflussten Prozesse waren der Protein- und der Energiemetabolismus. Der Sauerstofftransport ist ein Prozess, der bei allen Substanzen beeinflusst wurde, jedoch mit unterschiedlichen Anteilen. Bei einer Exposition gegenüber Methyltestosteron war der Anteil des Sauerstofftransports an den beteiligten Prozessen mit 84,6% am größten und mit 10,5% bei Fluoxetin am geringsten. Die veränderte Genexpression der Globine kann möglicherweise aufgrund der schadstoffspezifischen Veränderungen als Biomarker für das Monitoring von Freilandgewässern angewendet werden. Da Tubulin und Aktin häufig nach einer Exposition gegenüber Stressoren differenziell exprimiert wird (bei Tributylzinn und CBZ in der vorliegenden Arbeit und bei Antidepressiva und Östrogenen in anderen Studien) wären die beiden Proteine möglicherweise ebenfalls als Biomarker für Chemikalienstress geeignet. Vor der Verwendung des ChiroChips als Screeninginstrument für die Chemikalienuntersuchung und das Biomonitoring müssen noch Untersuchungen zur konzentrationsabhängigen Genexpression und zur Expression in unbehandelten Larven und weiteren Lebensstadien erfolgen. Des Weiteren müssen die vorliegenden Daten verifiziert und die Funktion der differentiell regulierten Gene vertieft untersucht werden.
Obwohl Böden unzweifelhaft ein signifikanter Pool von organischem Kohlenstoff sind, ist ihre Bedeutung als potenzielle langfristige Senke für atmosphärischen Kohlenstoff keineswegs klar. Trotz bedeutender wissenschaftlicher Forschritte aus den letzten Jahren zur Klärung der Kohlenstoffdynamik in Böden gibt es nach wie vor offene Fragen insbesondere hinsichtlich der spezifischen geochemischen Mechanismen, die für die Stabilisierung organischen Kohlenstoffs in Böden verantwortlich sind. Vor diesem Hintergrund besteht ein wesentliches Ziel der vorliegenden Dissertation darin, in unterschiedlichen Bodentypen die Konzentration von organischem Kohlenstoff und Stickstoff sowie die mineralogische Zusammensetzung zu untersuchen, um Hinweise auf einen möglichen Einfluss der Tonmineralogie, der spezifischen Oberfläche und der Oxidkonzentration auf die Stabilisierung organischen Materials zu ermitteln. Die Ergebnisse sollen einen Beitrag dazu liefern, die Mechanismen der Fixierung organischer Substanz in Böden besser zu verstehen und das vorhandene Wissen hierüber zu erweitern. Hierzu wurden fünf verschiedene Bodenprofile aus Hessen mit unterschiedlicher mineralogischer Zusammensetzung untersucht. Um die Auswirkungen verschiedener physikalischer und geochemischer Faktoren auf den Gehalt organischer Substanz in den untersuchten Böden festzustellen, wurden folgende Parameter untersucht: -Tonmineralogie, -organische Kohlenstoff- und Stickstoff-Konzentrationen, -%-Kationensättigung, -spezifische Oberfläche, -dithionit- und oxalatlösliche Gehalte an Fe, Al und Mn. Anhand dieser Parameter wurden weiterführende statistische Analysen unter Verwendung der Statistiksoftware SPSS für Windows durchgeführt, um mögliche statistische Zusammenhänge aufzudecken, die für die Stabilisierung von organischem Kohlenstoff in den betrachteten Böden verantwortlich sind. Die im Rahmen der vorliegenden Dissertation ermittelten Ergebnisse zeigen, dass der Tonanteil und die Tonmineralogie der untersuchten Böden nur einen begrenzten Einfluss auf die Stabilisierung organischer Substanz haben. Weiterhin wird gezeigt, dass die in der Literatur propagierte Beziehung zwischen spezifischer Oberfläche und der Konzentration organischen Kohlenstoffs nicht auf alle Böden anwendbar ist. Die Ergebnisse deuten darauf hin, dass die Präsenz von amorphen Eisen- und Aluminiumoxiden der wichtigste Einflussfaktor für die Fixierung von organischem Material in den untersuchten Böden ist. Die größeren Konzentrationen von organischem Kohlenstoff in den kleinsten Fraktionen (Feinschluff und Ton) der Profile sind vor allem darauf zurückzuführen, dass Oxide ebenfalls in diesen Fraktionen aufzufinden sind. Tonminerale haben demnach eine sekundäre Bedeutung, indem sie Komplexe mit den Oxiden bilden, die zur Stabilisierung von organischer Substanz führen können. Insgesamt deuten die Ergebnisse daraufhin, dass Böden keine geeignete Senke für die langfristige Speicherung von organischem Kohlenstoff sind. Obwohl Mechanismen wie die Adsorption von organischer Substanz an Oxide die Stabilisierung organischen Materials unterstützen, scheinen diese nicht stark genug zu sein, um eine permanente Speicherung von organischem Kohlenstoff zu bewirken.
Identifizierung und Charakterisierung neuer Inhibitoren der C2-ähnlichen Domäne der 5-Lipoxygenase
(2011)
Die 5-Lipoxygenase (5-LO) katalysiert die ersten beiden Schritte der Leukotrien (LT)-Biosynthese (Samuelsson et al., 1987). Das Substrat Arachidonsäure (AA) wird im ersten Schritt zu einem Fettsäurehydroperoxid, der 5(S)-Hydroperoxy-6-trans-8,11,14-cis-Eikosatetraensäure (5-HpETE) oxidiert. Durch Dehydrierung entsteht im zweiten Reaktionsschritt das instabile Epoxid LTA4. Weiter wandeln zwei Synthasen das LTA4 zum einen in LTB4 oder zum anderen in die Cysteinyl-LTs C4, D4 und E4 um (Samuelsson et al., 1987). Die 5-LO wird in Zellen myeloiden Ursprungs exprimiert und kommt vor allem in reifen Leukozyten vor.
LTs spielen eine wichtige Rolle bei der angeborenen Immunantwort und vermitteln vor allem entzündliche und allergische Reaktionen (Funk 2001; Peters-Golden & Henderson, 2007). Asthma bronchiale, kardiovaskuläre Erkrankungen wie Atherosklerose, Osteoporose oder verschiedene Krebsarten werden im Zusammenhang mit der 5-LO untersucht (Werz & Steinhilber, 2006). Die Inhibition der LT-Biosynthese oder die Senkung der LT-Spiegel stellt eine Möglichkeit dar, den entzündungsfördernden Eigenschaften entgegenzuwirken. Inhibitoren der LT-Biosynthese lassen sich in indirekte und direkte 5-LO-Inhibitoren gliedern. Zu den indirekten 5-LO-Inhibitoren zählen FLAP-Antagonisten (Young, 1991; Evans et al., 2008) sowie CysLT1-Rezeptorantagonisten (Darzen, 1998). Von den vier Gruppen der direkten 5-LO-Inhibitoren (redoxaktive, Eisenligand-, nichtredox- sowie diverse Inhibitoren (Pergola & Werz, 2010)) ist bisher nur Zileuton (Carter et al., 1991), ein Eisenligand-Inhibitor, als Wirkstoff zur Behandlung von Asthma bronchiale in den USA zugelassen.
Das Ziel der vorliegenden Arbeit war es, die neuartige Klasse der Imidazo[1,2-a]pyridine hinsichtlich ihrer 5-LO-Inhibition, ihrer Löslichkeit sowie ihrer Effekte auf die Zellviabilität zu evaluieren und zu optimieren. Dabei stand das Verständnis der Rezeptor-Ligand-Wechselwirkung im Fokus. Ausgehend von Substanz A14, der potentesten Substanz eines virtuellen Screenings nach dualen COX/5-LO-Inhibitoren (Hofmann et al., 2008), wurden 78 Substanzen in ionophor-stimulierten intakten polymorphkernigen Leukozyten (PMNL) sowie im zellfreien System, dem Überstand nach 100.000 × g Zentrifugation (S100) von homogenisierten PMNL, bezüglich ihrer inhibitorischen Aktivität untersucht. Die Effekte auf die Zellviabilität nach Inkubation mit den Substanzen für 48 h auf die humane leukämische Monozytenvorläufer Zelllinie U937 wurden mit Hilfe eines WST-Assays, der die mitochondriale Aktivität misst, sowie eines LDH-Assays, zur Bestimmung der Freisetzung von LDH als Folge von Nekrose, evaluiert.
Innerhalb der Struktur-Aktivitäts-Beziehung (SAR) der 78 Derivate konnte kein eindeutiges Substitutionsmuster, das sowohl in intakten PMNL als auch in zellfreiem S100 zu den gleichen Schlüssen führt, festgestellt werden. Ausgehend von Substanz A14 konnte die inhibitorische Aktivität verbessert werden, wobei Substanzen mit nanomolaren IC50-Werten in beiden Assaysystemen resultierten. Die Substanzen lassen sich in drei strukturelle Teile gliedern: Einen oberen Teil am sekundären Amin, ein bizyklisches N-fusioniertes Imidazopyridin (Teil A) sowie einen Teil B am aromatischen Kern. Nur für den oberen Teil ließ sich ein allgemein-gültiges Substitutionsmuster feststellen. Am sekundären Amin führen in intakten PMNL größere Substituenten zu einer Verbesserung der inhibitorischen Aktivität, wobei dies bis zu einer Cyclohexylgruppe gilt und eine Adamantyl-Substitution eine Ausnahme bildet. Allgemein lässt sich feststellen, dass bei einer Cyclohexylgruppe am sekundären Amin und einer Methylgruppe an Position 6 in Teil A, die Substituenten in Teil B stark variieren können, ohne an inhibitorischer Aktivität zu verlieren. Werden innerhalb des oberen Teils oder in Teil A die Substituenten polarer, sind in Teil B weniger Variationen möglich. Es werden insbesondere lipophile Reste toleriert. Beim Versuch, die Löslichkeit zu verbessern, zeigte sich, dass ein Gleichgewicht zwischen polaren und unpolaren Substituenten vorliegen muss. Auch die Einflüsse der Substituenten auf die Zellviabilität konnten nicht einem allgemein-gültigen Muster unterworfen werden. Mit Substanz 15 konnte ein Derivat identifiziert werden, das verglichen mit der Ausgangssubstanz A14 eine verbesserte inhibitorische Aktivität aufweist (IC50-Werte von 0,16 µM (PMNL) und 0,1 µM (S100)), löslicher ist (clogP-Wert von 4,6) und keine Nekrose auslöst. Weiter zeigten auch die Substanzen 31 und 50 eine Verbesserung der inhibitorischen Aktivität (IC50-Werte von 0,26 µM bzw. 0,58 µM (PMNL) und 0,8 µM bzw. 0,16 µM (S100)) ohne Nekrose auszulösen, wobei Substanz 50 zusätzlich eine verringerte Lipophilie (clogP-Wert von 4,2) aufweist. Substanz 76 ist mit einem IC50-Wert von 6 nM die im zellfreien System aktivste Substanz unter den 78 getesteten Derivaten.
Ein vielversprechender Vertreter dieser neuartigen Klasse der Imidazo[1,2-a]pyridine, Substanz 15 (EP6), wurde in verschiedenen Assaysystemen charakterisiert. EP6 ist ein hochwirksamer Inhibitor der 5-LO mit einem IC50-Wert von 0,16 µM in intakten PMNL und weist im zellfreien S100 von PMNL einen IC50-Wert von 0,1 µM, am partiell gereinigten Enzym einen IC50-Wert von 0,05 µM auf. Die vergleichbare inhibitorische Aktivität in intakten Zellen sowie im zellfreien System lässt auf eine direkte Inhibition der 5-LO schließen. Die Zugabe der allosterischen Faktoren ATP oder Calcium hat keinen Einfluss auf die Potenz von EP6. Auch ist die Inhibition nicht vom Redoxzustand der Zelle abhängig, wie im Falle bekannter nichtredox-Inhibitoren (Werz et al., 1998). Die Zugabe von steigenden Mengen an exogenem Substrat AA zu S100 von PMNL führt zu keiner Beeinträchtigung der Potenz von EP6, was im Vergleich zu den nichtredox-Inhibitoren einen Vorteil bei entzündlichen Prozessen mit erhöhten Lipidhydroperoxid-Spiegeln darstellt. Bei ionophor-stimulierten PMNL ohne die Zugabe von exogenem Substrat resultiert ein sechsfach höherer IC50-Wert von 1,2 µM, der auf eine allosterische Inhibition durch EP6 hinweist, bei der Substrat in ausreichenden Mengen vorliegen muss, damit EP6 mit dem 5-LO-AA-Komplex interagieren kann. Darüber hinaus inhibiert EP6 die LT-Bildung unabhängig von der Art der 5-LO-Stimulation bei einer Zugabe von 20 µM exogener AA. Der physiologische Stimulus in PMNL über N-Formylmethionyl-Leucyl-Phenylalanin (fMLP) führt zu einem höheren IC50-Wert von 0,76 µM mit Zugabe von 20 µM AA und bestätigt die Ergebnisse von ionophor-stimulierten PMNL ohne Zugabe von exogenem Substrat. Für EP6 konnte weiterhin eine allosterische Bindestelle an der C2-ähnlichen Domäne der 5-LO postuliert werden. Die Zugabe von Phosphatidylcholin führte zu einer verminderten inhibitorischen Aktivität. Durch Experimente mit einer Mutante der 5-LO, bei der die Tryptophane, welche die Membranbindung vermitteln, ausgetauscht sind (3W-Mutante), konnte die Interaktion dieser Aminosäuren mit EP6 gezeigt werden. Über einen Kompetitionsassay mit der C2-ähnlichen Domäne, Mutations- und Docking-Studien, wurden die Aminosäuren Y81, Y100 und Y383 des Interfaces der beiden Domänen der 5-LO als essentiell für die Bindung identifiziert. Somit zählt EP6 als Vertreter der Klasse der Imidazo[1,2-a]pyridine neben Hyperforin und AKBA zu den einzigen mit der C2-ähnlichen Domäne interagierenden 5-LO-Inhibitoren.
EP6 ist ein selektiver Inhibitor der 5-LO, der die 15-LO1, 15-LO2 und 12-LO nicht inhibiert. Weiterhin werden drei weitere Enzyme der AA-Kaskade, die Cyclooxygenase-1 und -2 sowie die mikrosomale Prostaglandin E2 Synthase-1 nicht durch EP6 beeinflusst. Neben der humanen 5-LO wird auch die murine 5-LO, in intakten RAW 264.7 Zellen und deren S100 getestet, mit niedrig mikromolarem bzw. nanomolarem IC50-Wert inhibiert, was die erste Voraussetzung für potentielle in vivo Studien darstellt.
Die Inhibition der 5-LO-Produktbildung in humanem Vollblut konnte jedoch bis zu einer Konzentration von 30 µM EP6 nicht gehemmt werden. EP6 ist lipophil (clogP-Wert von 4,6) und weist eine hohe Plasmaproteinbindung (Bindung an humanes Serumalbumin von 97,5 ± 0,7% bei 10 µg/ml EP6) auf, was die Unwirksamkeit in humanem Vollblut erklären könnte.
Abschließend wurden die Effekte von EP6 auf die Zellviabilität untersucht. Die Experimente wurden zunächst in U937 bei einer Inkubationszeit von 48 h mit einer maximalen Konzentration von 30 µM EP6 durchgeführt. EP6 führt zu keinen unmittelbaren zytotoxischen Effekten innerhalb der Inkubationszeit der in dieser Arbeit durchgeführten Aktivitätsassays (gezeigt in PMNL). Weiter wurde jedoch gezeigt, dass die mitochondriale Aktivität nach Inkubation für 48 h mit einem EC50-Wert von 14 µM beeinträchtigt wird (WST-Assay). Dieser Effekt ist jedoch nicht auf Nekrose zurückzuführen, da die gemessene Konzentration an freigesetztem LDH gering bleibt. Über ein Langzeitexperiment wurde die Abnahme der Lebendzellzahl nach Inkubation mit 30 µM EP6 nach 24 h festgestellt. Über Detektion von PARP-Spaltung, einem Marker für späte Apoptose, stellte sich heraus, dass EP6 in U937 Apoptose induziert. Zusätzlich zu den Untersuchungen der leukämischen Zelllinie wurden humane nicht-tumor Zellen (RPE) im Langzeitexperiment sowie im BrdU-Assay untersucht. EP6 beeinträchtigt die Lebendzellzahl der nicht-tumor Zelllinie RPE nicht und führt nur zu geringen antiproliferativen Effekten.
Organisation und Steuerung des Treiberameisenverhaltens südostasiatischer Ponerinen der Gattung Leptogenys Treiberameisen zeichnen sich durch eine einzigartige Kombination aus Wanderverhalten (häufige Umzüge) und koordinierter Massenjagd (kollektive Raubzüge) aus. Obwohl allgemein angenommen wird, daß die Kommunikation dieser Ameisen zu einem bedeutenden Teil durch Spurpheromone erfolgt, sind bisher in den drei Unterfamilien Ecitoninae, Dorylinae und Aenictinae nur wenige Drüsen bekannt, die derartige Pheromone produzieren. Welche Rolle einzelne Pheromonkomponenten bei der Koordination des komplexen Schwarmverhaltens spielen, wurde bislang noch nicht untersucht. In der Gattung Leptogenys gibt es ein weites Spektrum verschiedener Ökotypen, u.a. auch Arten, die echtes Treiberameisenverhalten zeigen. Bei sieben malaiischen Leptogenys-Arten wurde die Koordination des kollektiven Verhaltens auf Basis der Kommunikation zwischen den Einzelindividuen untersucht. Bei allen Arten wurden mehrere Spurpheromone entdeckt, die in den Gift- und in den Pygidialdrüsen lokalisiert waren. Ökologisch verschiedene Arten wiesen Unterschiede im Kommunikationssystem auf. Die Koordination des Treiberameisenverhaltens von L. distinguenda wurde besonders ausführlich untersucht. Diese Art besitzt ein Mehr-Komponenten-Signalsystem, bei dem die einzelnen Pheromone multiple Funktionen erfüllen. Die Pygidialdrüse enthält eine Pheromonkomponente, die ca. 20 min lang gute Spurfolge bewirkt. Sie dient der Orientierung einzelner Individuen und damit dem Koloniezusammenhalt. Aufgrund konzentrationsabhängiger Spurfolge und durch Modulation der Spurkonzentration kann eine langsame Rekrutierung auf neues Territorium mit diesem Pheromon koordiniert werden. Die Giftdrüse enthält zwei Pheromone. Eine sehr flüchtige Substanz (4-Methyl-3-Heptanon) bewirkt nur 1-2 min lang eine außerordentlich starke Attraktion sowie Erregung, Beschleunigung der Fortbewegung und Aggressivität. Mit dieser Komponente werden Beuterekrutierungen koordiniert. Die starke Wirkung kann das Verhalten zahlreicher Tiere und auf diese Weise sogar die Vorstoßrichtung ganzer Raubzüge beeinflussen. Aufgrund der extremen Flüchtigkeit des Pheromons ist dieser Einfluß jedoch nur momentan, so daß die Raubzugformation außerordentlich dynamisch ist. Eine zweite Komponente der Giftdrüse bewirkt bis zu 5 min lang gute Spurfolge ohne Erregung. Diese Substanz dient ebenfalls dem Koloniezusammenhalt. In den chemischen Spuren können Komponenten gemischt und der Informationsgehalt dadurch variiert werden. Zudem reagieren einzelne Tiere je nach Motivation nur auf bestimmte Komponenten, was situationsspezifisches Verhalten ermöglicht. Beute eintragende Arbeiterinnen folgen selektiv einer Komponente der Pygidialdrüse und ignorieren Komponenten der Giftdrüse. Auf diese Weise steuern sie gezielt das Nest an. In ähnlicher Weise fungieren beim Nestumzug hoch konzentrierte Spuren aus Pygidialdrüsensekret als Leitlinie zum neuen Nest. Umziehende Tiere meiden zudem sehr empfindlich das Sekret der Giftdrüse. Auf diese Weise werden Raubzugspuren klar unterschieden und nicht betreten, so daß beide für Treiberameisen charakteristischen Verhaltensweisen synchron ausgeführt werden können. Der Nestumzug wird mit einem distinkten, mechanischen Signal ausgelöst. Im Notfall kann ein Umzug oder Raubzug mit einer spezifischen Alarmsubstanz aus der Mandibeldrüse abrupt beendet werden. Dies ist z.B. von Bedeutung, wenn sich artgleiche Kolonien begegnen. Das Kommunikationssytem von L. distinguenda zeigt, wie komplexes Verhalten mit einem minimalen Satz an Signalen koordiniert werden kann. Nach den Ergebnissen der vorliegenden Arbeit reicht ein einziges Pheromon bei weitem nicht aus, um treiberameisentypisches Verhalten zu realisieren. Treiberameisen sind besonders reich an Myrmekophilen. Die Integration dieser Ameisengäste vor allem in das Kommunikationssystem ihrer Wirte wurde in der vorliegenden Arbeit ebenfalls untersucht. Dabei wurden unterschiedliche Strategien vorgefunden, mit denen Myrmekophile den häufigen Umzügen ihrer Wirtskolonie folgen. Ein Teil der Arten läßt sich von den Ameisen auf der Brut aufsitzend in das neue Nest tragen. Diese Arten reagieren i.d.R. nicht auf die Pheromonspuren der Ameisen. Ein anderer Teil ist in der Lage, den Pheromonspuren aktiv zu folgen. Diese Fähigkeit ist erstmalig bei einer Spinne (Gamasomorpha maschwitzi) nachgewiesen worden. Einen besonders bemerkenswerten Gast stellt die neu beschriebene Lungenschnecke Allopeas myrmecophilos dar. Sie sondert selektiv bei Kontakt mit L. distinguenda ein spezifisches Attraktionssekret ab, welches die Ameisen dazu veranlaßt, die Schnecke mit den Mandibeln aufzunehmen und ins Nest zu tragen. A. myrmecophilos ist der erste nachgewiesene Fall eines Myrmekophilen aus dem Stamm der Mollusken.
Die Haarzellen des Innenohrs setzen durch Schallreize ausgelöste Schwingungen der Basilarmembran in elektrische Impulse um, die über Nerven an das Gehirn geleitet werden und dort nach komplexer neuronaler Verarbeitung die Hörwahrnehmung auslösen. Gleichzeitig erhalten die äußeren Haarzellen über absteigende Nervenverbindungen, die olivo-cochleären Neurone, auch Informationen vom Gehirn, durch die ihre Empfindlichkeit verändert werden kann. Über die Mechanismen dieser efferenten Beeinflussung der Reizverarbeitung im Innenohr ist noch wenig bekannt und auch ihre biologische Funktion ist noch nicht geklärt. Diskutiert wird eine Rolle bei der Verbesserung des Signal-Hintergrundrausch-Verhältnisses und im Zusammenhang mit selektiver Aufmerksamkeit, durch die relevante Anteile der akustischen Umwelt gezielt „herausgehört“ werden können. Ziel dieser Promotionsarbeit ist die Untersuchung der efferenten Beeinflussung der Vorgänge im Innenohr mithilfe der nicht-invasiven Messung von akustischen Beiprodukten der aktiven Reizverstärkung durch die äußeren Haarzellen, den otoakustischen Emissionen. Bei dieser Methode werden mit einem empfindlichen Mikrophon im Gehörgang Schallereignisse aufgenommen, die das Ohr selbst produziert. Die olivo-cochleären Efferenzen können experimentell durch Applikation von Rausch-Stimuli auf dem kontralateralen Ohr aktiviert werden und ihre Wirkung auf die Empfindlichkeit des Innenohrs anhand der Veränderungen der otoakustischen Emissionen auf dem anderen, ipsilateralen Ohr gemessen werden. In Messungen unterschiedlicher Typen von otoakustischen Emissionen am Menschen und an der Mongolischen Wüstenrennmaus konnten deutliche Veränderungen der otoakustischen Emissionen bei gleichzeitiger Beschallung des kontralateralen Ohrs gezeigt werden, die als Modulation der Haarzelleigenschaften und Beeinflussung der cochleären Verstärkung durch Aktivierung der absteigenden Nervenbahnen interpretiert werden können: Spontane otoakustische Emissionen (SOAE), die ohne jegliche akustische Stimulation vom Innenohr generiert werden, zeigten bei kontralateraler akustischer Stimulation eine Verminderung ihres Pegels und eine Erhöhung ihrer Frequenz. Die Pegelverminderung deutet auf eine Dämpfung der cochleären Verstärkungsmechanismen und die Frequenzerhöhung auf eine Erhöhung der Steifigkeit im Corti-Organ und hierdurch veränderte Resonanzeigenschaften nach Aktivierung der efferenten Neurone hin. Distorsionsprodukt-otoakustische Emissionen (DPOAE), die bei Stimulation mit zwei Reintönen (f1 und f2) in Folge der nichtlinearen Verstärkung durch die äußeren Haarzellen entstehen, waren durch kontralaterale akustische Stimulation ebenfalls klar in ihrem Pegel beeinflusst. Die Effekte, sowohl auf SOAE als auch auf DPOAE, waren abhängig vom Pegel des kontralateralen Stimulus und traten bereits bei niedrigen kontralateralen Stimuluspegeln, deutlich unter der Schwelle des Mittelohrreflexes, auf. Durch ihren Zeitverlauf konnten die Effekte den in der Literatur beschriebenen efferenten Vorgängen zugeschrieben werden. Bei anhaltender akustischer Stimulation traten Adaptationsphänomene auf. Weiterhin zeigte sich in Experimenten mit kontralateralem Schmalbandrauschen und Reintönen, dass die efferente Modulation selektiv auf bestimmte Bereiche des tonotop organisierten Innenohrs zielt, also frequenzspezifisch agiert, wobei Reintöne mit Frequenzen, die etwas tiefer als die Stimulationsfrequenz lagen, die größten Effekte erzielten. Dies steht in guter Übereinstimmung zu anatomischen Daten. Besonders interessant an den DPOAE-Messungen war, dass das quadratische Distorsionsprodukt der Frequenz f2-f1 wesentlich empfindlicher reagierte als das kubische Distorsionsprodukt der Frequenz 2f1-f2. Bisher gibt es kaum Daten zu Veränderungen der f2-f1-DPOAE durch efferente Mechanismen. Die beiden DPOAE-Typen sind durch unterschiedliche Parameter der dem Verstärkungsprozess zu Grunde liegenden Transferfunktion beeinflusst, und die experimentell nachgewiesenen Unterschiede deuten darauf hin, dass die Aktivierung der olivo-cochleären Efferenzen ihre dämpfende Wirkung auf die Schallverarbeitung im Innenohr durch eine Verschiebung des Arbeitspunktes der Transfercharakteristik des cochleären Verstärkers entfaltet. Diese Hypothese wurde an der Wüstenrennmaus durch einen ergänzenden methodischen Ansatz unterstützt, bei dem zusätzlich zur Evozierung und Messung von DPOAE mit und ohne gleichzeitiger kontralateraler Aktivierung der Efferenzen ein sehr tieffrequenter „Bias“-Ton mit hohem Pegel appliziert wurde, der das Corti-Organ und damit den Arbeitspunkt des cochleären Verstärkers periodisch auslenkte. Diese Tieftonstimulation hatte eine sehr starke, von der Phase des Bias-Tons abhängige Modulation des f2-f1-Pegels zur Folge, während 2f1-f2 kaum beeinflusst wurde. Das Muster der f2-f1-Pegelmodulation änderte bei zusätzlicher kontralateraler Schallapplikation deutlich seinen Charakter. Entsprechende Veränderungen in den Verzerrungsmustern konnten mithilfe eines einfachen Modells zur DPOAE-Generation, das auf der Beschreibung des Verstärkungsmechanismus durch eine Boltzman-Funktion basierte, simuliert werden. Die Befunde der vorliegenden Arbeit zeigen, dass die Schallverstärkung im Innenohr durch efferente Mechanismen moduliert wird und dies anhand der nicht-invasiven Messung von otoakustischen Emissionen nachweisbar ist. Dabei deuten die Ergebnisse auf eine Verschiebung des Arbeitspunktes der Transfercharakteristik des cochleären Verstärkers als Mechanismus der olivo-cochleären Modulation der Reizverarbeitung im Innenohr hin.
CpG-Oligodesoxynukleotide (CpG-ODN) sind von medizinischem Interesse aufgrund ihrer immunstimulierenden Wirkung, die durch chemische Wechselwirkungen zwischen dem Toll-like-Rezeptor 9 und dem CpG-Oligodesoxynukleotid ausgelöst wird. Um die molekulare Grundlage dieser DNA-Protein-Erkennung näher zu erforschen und um neue modifizierte CpG-Oligodesoxynukleotide mit einem verbessertem Wirkungsprofil für medizinische Anwendungen zu synthetisieren, wurde diese Arbeit angefertigt. Untersucht wurde, welche Synthesestrategie eine effiziente Syntheseroute zur Modifizierung von CpG-Oligodesoxynukleotiden ermöglicht. Als prinzipiell interessante Modifikationen wurden solche gewählt, die dem CpG-ODN-Liganden, Toll-like-Rezeptor 9, zusätzliche Wechselwirkungen eröffnen, wie die H-Brückenwechselwirkungen durch OH, NH2, NO2 oder pi-Stacking-Wechselwirkungen, wie durch z. B. Phenyl oder Pyren. Zunächst wurde in Erwägung gezogen, die bislang in der Literatur nicht für CpG-ODN unter-suchte Position 6 von Cytidin mit OH oder NH2 modifizieren. Hierfür wurde die allgemeine Synthesestrategie verwendet, bei der die Cytosin-Derivate stereoselektiv durch Vorbrüggen-Glykosilierung mit peracetylierter Ribose zum Nukleosid umgesetzt werden. Anschließend erfolgte die Deacetylierung, die regiospezifische Einführung der Tetra-(iso-propyl)-di-siloxan-Schutzgruppe an der 3´,5´-Position. Danach sollte die 2´-OH-Funktion mit Thio-phenylchlorid verestert und nach Barton McCombie desoxygeniert werden. Nach Dimethoxy-triphenylmethylierung an der 5´-OH-Funktion sollte die Umsetzung zum Phosphoramidit erfolgen. ...
Die Chemoresistenz von Tumoren ist ein schwerwiegendes Problem in der Krebstherapie. Insbesondere das maligne Melanom gilt aufgrund seiner ausgeprägten Therapieresistenz als nahezu unheilbar. Ein erster Schritt zur Verbesserung der Chemotherapie von Tumoren ist das Verständnis von Mechanismen, die der Resistenz zugrunde liegen. Für die Aufklärung der Mechanismen ist die Molekularbiologie des chemoresistenten Phänotyps von großem Interesse. Im Rahmen dieser Arbeit wurden Veränderungen im Transkriptionsmuster analysiert, die mit dem Erwerb von Chemoresistenz in Melanomzellinien einhergehen. Die Melanomzellinie MeWo wurde mit Abkömmlingen, die erworbene Resistenz gegen die DNA-schädigenden Agenzien Etoposid (MeWoEto1), Cisplatin (MeWoCis1) und Fotemustin (MeWoFote40) aufweisen, bezüglich ihres Transkriptionsmusters verglichen. Um zunächst eine möglichst große Anzahl von Genen in die Analyse einzubeziehen, wurden initiale Genexpressionsanalysen unter Verwendung des RZPD UniGene 1 Arrays durchgeführt. Dieses Array repräsentiert ca. 31.500 cDNA Sequenzen, die bei einer geschätzten Redundanz von 1,44 einer Anzahl von 21.875 verschiedenen Transkripten entsprechen. Geht man davon aus, dass der Mensch insgesamt über ca. 30.000 Gene verfügt, wurde durch die Verwendung dieses Arrays ein großer Teil aller humanen Gene untersucht. Unter definierten Selektionskriterien wurden 126 Gene ausgewählt, die als im chemoresistenten Phänotyp differentiell exprimiert angesehen wurden. Diese 126 Gene wurden mit 1.143 weiteren tumorassoziierten Genen für die Zusammenstellung und Produktion eines chemoresistenzspezifischen Kandidatengen-Arrays ausgewählt. In verifizierenden Analysen unter Verwendung des Kandidatengen-Arrays wurde eine differentielle Expression für 57 der initial selektierten Gene sowie für weitere 209 tumorassoziierte Gene festgestellt. Die in diesen Analysen angewandten Kriterien für die Definition differentieller Genexpression wurden in exemplarischen Northernblot-Analysen geprüft. Hier zeigte sich eine qualitative Übereinstimmung der Ergebnisse beider Methoden von 81,4%. Da zur Zeit noch keine Hochdurchsatz-Methoden für funktionelle Analysen zur Verfügung stehen, wurde versucht, den Kreis vielversprechender Kandidaten durch eine Integration von Ergebnissen anderer Experimente einzuengen. In Clusteranalysen zur Untersuchung von Verwandtschaftsgraden zwischen den resistenten Zellpopulationen zeigte die MeWoEto1-Zellinie eine vergleichsweise hohe Stabilität in ihrem Genexpressionsmuster über einen Zeitraum von ca. 2,5 Jahren, während MeWoCis1 und MeWoFote40 hier beträchtliche Schwankungen aufwiesen. Die Expressionsmuster der letzteren resistenten Linien zeigten zum spätesten analysierten Zeitpunkt Konvergenz, nachdem sie zunächst deutlich voneinander abwichen. Da die Wirkung sowohl von Cisplatin als auch von Fotemustin zur Bildung von DNA-Addukten führt, kann die Konvergenz als Ergebnis einer fortschreitenden Optimierung der Resistenz in beiden Linien gedeutet werden. Einzelne Gene wie z.B. PEPP2 und CRYAB, die konvergierend differentielle Expression zeigten, können demnach als vielversprechende Kandidaten für eine funktionelle Relevanz in der Resistenz gegen Cisplatin und Fotemustin betrachtet werden. Neben der Clusteranalyse wurden Ergebnisse von vergleichenden genomischen Hybridisierungen (CGH), der Untersuchung einer Deregulation von Kandidatengenen in mehreren der resistenten Linien oder nach Kurzzeitbehandlung von MeWo-Zellen mit den Zytostatika sowie Literaturdaten verwendet, um die Relevanz der differentiellen Expression für einzelne Gene zu validieren. Danach wurden unter anderen die apoptoserelevanten Gene CRYAB und STK17A sowie MPP1, AHCYL1, CYR61 und STMN3 als vielversprechende Kandidaten eingestuft. Ein weiteres bis dahin unbekanntes Gen aus der C2H2-Zinkfinger-Genfamilie, für das in initialen Analysen sowie in Northernblot und RT-PCR-Experimenten eine Überexpression in MeWoCis1 und MeWoEto1 nachgewiesen werden konnte, wurde bezüglich seiner mRNA-Sequenz vervollständigt und im Detail analysiert. Für dieses Gen konnte phänotyp- bzw. gewebespezifisches differentielles Spleissen sowie differentielle Polyadenylierung nachgewiesen werden. Das alternative Spleissen von Exon 3, dem aufgrund seiner ausgeprägten Homologie zu bereits charakterisierten KRAB A Domänen die Funktion der transkriptionalen Repression zugewiesen werden kann, könnte für ein phänotypspezifisches Transkriptionsprogramm verantwortlich sein. Ausgehend von insgesamt 267 differentiell exprimierten Genen konnte der Kreis vielversprechender Kandidaten durch die Integration von Daten aus anderen Experimenten auf ca. 20 Gene eingeengt werden. Unmittelbar im Anschluss and die Dissertation werden diese Gene in funktionellen Analysen bezüglich ihrer Relevanz für den chemoresistenten Phänotyp analysiert.
The importance of RNA in molecular and cell biology has long been underestimated. Besides transmitting genetic information, studies of recent years have revealed crucial tasks of RNA especially in gene regulation. Riboswitches are natural RNA-based genetic switches and known only for ten years. They directly sense small-molecule metabolites and regulate in response the expression of the corresponding metabolic genes. Within recent years, artificial riboswitches have been developed that operate according to user-defined demands. Hence, they represent powerful tools for synthetic biology.
This study focused on the development of engineered catalytic riboswitches for conditional gene expression in eukaryotes. A self-cleaving hammerhead ribozyme was linked to a tetracycline binding aptamer in order to regulate ribozyme cleavage allosterically with tetracycline. By integrating such a hybrid molecule into a gene of interest, mRNA cleavage and thereby gene expression is controllable in a ligand dependent manner. The linking domain between ribozyme and aptamer was randomised. Tetracycline inducible ribozymes were isolated after eleven cycles of in vitro selection (SELEX). 80% of the analysed ribozymes show cleavage that strongly depends on tetracycline. In the presence of 1 μM tetracycline, their cleavage rates are comparable to that of the parental hammerhead ribozyme. In the absence of tetracycline, cleavage rates are inhibited up to 333-fold. The allosteric ribozymes bind tetracycline with similar affinity and specificity as the parental aptamer. Ribozyme cleavage is fully induced within minutes after addition of tetracycline. Interestingly, the isolated linker domains exhibit structural consensus motives rather than consensus sequences.
When transferred to yeast, three switches reduced reporter gene expression by 30 - 60% in the presence of tetracycline; none of them controlled gene expression in mammalian cells. In vitro selected molecules do not necessarily retain their characteristics when applied in a cellular context. Therefore, high throughput screening and selection systems have been developed in mammalian cells. The screening system is based on two fluorescent reporter proteins (GFP and mCherry). 1152 individual constructs of the selected ribozyme pool were tested, but none of them reduced reporter gene expression significantly in the presence of tetracycline. The selection system employs a fusion peptide encoding two selection markers (Hygromycin B phosphotransferase and HSV thymidine kinase) facilitating both negative and positive selection. 6.5 x 104 individual constructs of the selected ribozyme pool are currently under investigation.
Zielsetzung Ziel dieser Studie war es, die diagnostische Sicherheit der hochauflösenden MRT mittels kombinierter Endorektal-Body-Phased-Array-Spule nativ und unter Einsatz von Gadolinium-DTPA bei Patienten mit bioptisch gesichertem oder klinisch hochgradigem Verdacht auf ein Prostatakarzinom vor radikaler Prostatektomie zu überprüfen. Insbesondere sollte die Möglichkeit der Abgrenzung der Stadien pT2 gegen pT3 und die klinische Relevanz der MR-Diagnostik für das therapeutische Konzept aufgezeigt werden. Material und Methodik Insgesamt wurden im Zeitraum von Februar 2000 bis Dezember 2003 58 Patienten einer MRT-Untersuchungen mit kombinierter Endorektal-Body-Phased-Array-Spule an einem 1,5 Tesla-Gerät unterzogen und 45 von Ihnen im Anschluss der radikalen Prostatektomie zugeführt. Das Untersuchungsprotokoll beinhaltete T1- und T2-gewichtete Turbo-Spin-Echo Sequenzen in axialer und koronarer Schichtführung, sowie ein KM-dynamisches Protokoll nach Gabe von 0,2 mmol Gadolinium-DTPA pro kg Körpergewicht. Die Befundung erfolgte durch zwei erfahrene, voneinander unabhängige Radiologen. Die Befunder hatten keinerlei Kenntnis über relevante, klinische Patientendaten. Die Korrelation der MRT-Bilder mit den histopathologischen Befunden erfolgte anhand von Großflächenschnitten der Prostatektomiepräparate. Ergebnisse Gutachter 1 erreichte eine Sensitivität und Spezifität in Bezug auf die Detektion extrakapsulären Wachstums und Samenblaseninfiltration (T1/2 versus T3/4) von 100% respektive 72%. Die Treffsicherheit lag bei 89%, der positive Vorhersagewert bei 84% und der negative Vorhersagewert bei 100%. In fünf Fällen, mit histologischem Stadium pT2a/b, war es zu einer falsch positiven Diagnose (pT3a/b) durch die MRT gekommen. Falsch negative Fälle – histologisches Stadium pT3/4 als pT1/2 gewertet – sind nicht vorgekommen. Insgesamt wurden 32 von 45 Patienten stadiengenau eingestuft, was zu einer Gesamtgenauigkeit von 71% führte. Gutachter 2 zeigte marginal bessere Ergebnisse, da es hier nur drei Mal zu einer Überbewertung gekommen war. Somit lauteten die Werte für Sensitivität und Spezifität 100% und 83%. Die Treffsicherheit lag bei 93%, und positiver sowie negativer Vorhersagewert bei 90% bzw. 100%. Insgesamt stufte Gutachter 2 35 von 45 Fälle stadiengenau ein, was zu einer Gesamtgenauigkeit von 78% führte. In der Begutachtung der dynamischen Sequenzen kamen die Gutachter zu identischen Ergebnissen bei einer Sensitivität von 90%, Spezifität von 63%, sowie einer Treffsicherheit von 78%. Der negative Vorhersagewert lag bei 83%, der positive bei 76%. Die Gesamtgenauigkeit betrug 38%. Schlussfolgerung Die Ergebnisse dieser Studie stehen im Einklang mit vorausgegangenen Untersuchungen ähnlicher Art. Die MRT kann nicht alleine bedingend für die Entscheidung der Therapiemodalität sein. Ihr Ergebnis ist zu integrieren in das Gesamtkollektiv der übrigen Befunde, woraus letztendlich in klinischer Bewertung des individuellen Patienten die Entscheidung für eine operative oder alternative Therapie resultiert. Im Vergleich zu Studien, die ausschließlich eine Endorektalspule verwendeten lässt sich ein moderater Zugewinn bezüglich der Spezifität konstatieren [12, 76]. Insgesamt konnten mit der Kombinationsspule insbesondere die vorderen Drüsenabschnitte und der ventro-laterale, periprostatische Raum mit höherem Signal abgebildet werden. Unsere Ergebnisse zeigen keinen relevanten diagnostischen Zugewinn durch die KM-Applikation. Qualitative Verbesserungen konnten wir bei pT4 und einigen pT3b-Tumoren durch das Enhancement der infiltrierten Nachbarstrukturen erkennen.
Im Rahmen dieser Arbeit wurde die humane Leukotrien A4-Hydrolase untersucht.
Die hLTA4H ist ein bifunktionelles Enzym, welches neben der Hydrolaseaktivität, welche für die Umwandlung des instabilen LTA4 zu LTB4 verantwortlich ist, auch eine Peptidaseaktivität aufweist. Beide Enzymaktivitäten spielen bei Entzündungsprozessen eine wichtige Rolle, weshalb die LTA4H ein interessantes pharmakologisches Target darstellt. Aufgrund der gegensätzlichen Eigenschaften der beiden Aktivitäten der LTA4H (Produktion des proinflammatorischen LTB4 durch die Hydrolase-Aktivität, sowie der Abbau des PGP-Tripeptids durch die Peptidase-Aktivität) wird deutlich, dass die Entwicklung selektiver Hydrolase-Inhibitoren von Vorteil ist.
Das Protein der humanen LTA4H konnte erfolgreich kloniert werden und in E. coli-Zellen exprimiert werden. Zur Gewinnung des reinen rekombinanten Proteins konnte ein Aufreinigungsprotokoll mittels Nickel-Affinitätschromatographie sowie anschließender Größenausschlusschromatographie etabliert werden. Durch die Testung unterschiedlicher Lysemethoden konnte die Ausbeute deutlich erhöht werden.
Um herauszufinden, ob es durch den potentiellen Inhibitor zu einer Hemmung der Enzymaktivität kommt, muss diese detektiert werden können. Hierfür wurde ein geeignetes fluoreszenzbasiertes Testsystem zur Detektion der Enzymaktivität der hLTA4H entwickelt. Dies lässt auch die Quantifizierung der Wirksamkeit der möglichen Inhibitoren zu. Mit Hilfe eines pharmakophorbasierten Ansatzes wurden 22 Testsubstanzen für die in vitro Testung ausgewählt. Nach der Evaluierung dieser Substanzen wurden weitere 14 Derivate der besten Verbindung ausgewählt und ihre inhibitorischen Eigenschaften an rekombinanter LTA4H getestet. Die Ergebnisse wurden mittels Differential Scanning Fluorimetrie validiert, wofür ein einfaches Protokoll etabliert werden konnte.
Im Rahmen dieser Arbeit wurden weiterhin 5 bereits bekannte Inhibitoren der LTA4H ausgewählt, um sie hinsichtlich ihres thermodynamischen Profils zu untersuchen. Hierzu wurden die ausgewählten Inhibitoren mittels Isothermer Titrationskalorimetrie vermessen. Die Dissoziationskonstanten der untersuchten Inhibitoren wurden ebenfalls mittels Differential Scanning Fluorimetrie bestimmt, wobei sich zeigte, dass diese Methode nicht zur präzisen Messung von Protein/Ligand Interaktionen herangezogen werden kann. Mittels eines in silico Ansatzes zur Vorhersage von stabilisierten und destabilisierten Wassermolekülen in der Bindetasche konnten die thermodynamischen Daten im strukturellen Kontext interpretiert werden. Durch diese Kombination konnten neue Erkenntnisse zum Design neuer Inhibitoren der LTA4H gewonnen werden.
Biodiversity is threatened worldwide because of ongoing habitat loss and fragmentation, overexploitation, pollution, biological invasions and a changing global climate. Due to the major importance of biological diversity for modern human living, efficient conservation and management strategies are required to protect endangered habitats and species. For this purpose, ambitious multilateral agreements on regional and global scale were declared to prevent biodiversity loss.
Efficient biomonitoring methods are required to adequately implement these biodiversity conventions. Species monitoring as a core activity in biodiversity research is an effective tool to assess the status of species and trends within habitats. Data collection can be obtained with visual, electronic or genetic surveys. Still, these monitoring programs can be expensive, laborious and inefficient for accurate species assessments. New techniques based on environmental DNA (eDNA) allows for the detection of DNA traces in environmental samples (soil, sediment, water and air samples) and open up new possibilities for species monitoring. The eDNA methodology enables detection of single species in a qualitative (presence/absence) or (semi-) quantitative way. eDNA metabarcoding approaches can be an effective community structure assessment method.
This thesis, located at the interface between experimental and applied research, illustrates the suitability of the eDNA methodology in applied biomonitoring using the example of the water-borne crayfish plague pathogen Aphanomyces astaci (Schikora 1906). The obtained results provide new insights into A. astaci sporulation dynamics in natural water courses. A. astaci sporulation is influenced by seasonal variation of water temperatures and life history traits (molting, activity, mating) of infected crayfish. The results also imply a high transmission risk of A. astaci spores during the complete year. This thesis compares two eDNA methods, which are successfully and consistently detecting A. astaci spores. Each approach is suitable for different biomonitoring tasks due to the method-specific requirements. The obtained results also reveal spatial variation in A. astaci occurance in the tested water bodies. A. astaci spore estimates are positively correlated with population density and pathogen loads of captured A. astaci- positive crayfish. eDNA results show a downstream zoospore transport of up to three kilometres distance from a distribution hot spot area of A. astaci-infected crayfish. The eDNA methodology is helpful in gaining reliable information on A. astaci occurrence in large water bodies. This information is urgently needed to initiate efficient management decisions for the conservation of European crayfish species.
eDNA-based methods such as for A. astaci detection are a useful complement for conventional monitoring and should have a strong impact on conservation policy. eDNA methodology will be helpful for the practical implementation of the main aims of key conservation agreements and thus will make important contributions to biodiversity protection.
´In die vorliegende klinische Studie wurden 30 Patienten mit einer
nachgewiesenen Erkrankung an rheumatoider Arthritis (RA) und 30 Probanden
ohne Erkrankung an RA einbezogen. Eine Differenzierung innerhalb der
Patientengruppe erfolgte in Bezug auf die Dauer der Erkrankung. Je 15
Patienten, die kürzer bzw. länger als acht Jahre an RA erkrankt waren, wurden
untersucht. Eine Selektion bzgl. des Bestehens einer kraniomandibulären
Dysfunktion (CMD) wurde nicht getroffen. Ziel der Studie war es, die Probanden
und RA-Patienten auf das Vorhandensein von CMD und insbesondere bzgl.
morphologischer Veränderungen der Kiefergelenke zu untersuchen und
vergleichend zu bewerten.
Die Untersuchung der Studienteilnehmer erfolgte anhand des klinischen
Funktionsstatus der Deutschen Gesellschaft für Zahn-, Mund- und
Kieferheilkunde sowie der manuellen Funktionsanalyse nach BUMANN und
GROOT LANDEWEER. Die Ergebnisse der klinischen Funktionsanalyse
wurden mittels des anamnestischen und klinischen Dysfunktionsindexes nach
HELKIMO zusammengefasst und graduiert. Zudem fand eine
magnetresonanztomographische Bewertung (MRT) der Kiefergelenke (n=120)
ohne Kontrastmittelanwendung statt. Zur Erstellung der Aufnahmen kamen
Spinecho-Sequenzen unter Verwendung der T1-, Protonendichte- bzw. T2-
Wichtung mit Fettunterdrückung zum Einsatz. Die Beurteilung erfolgte anhand
eines standardisierten Untersuchungsbogens zur Auswertung von MRTAufnahmen.
Die Kiefergelenke wurden jeweils seitenbezogen bewertet
(rechtsseitig (R)/linksseitig (L)). Die Ergebnisse der Funktionsanalyse ergaben
statistisch signifikante Unterschiede im Vergleich beider Gruppen in Bezug auf
das Vorhandensein von Reibegeräuschen des Kiefergelenks (Probanden 0%,
Patienten 30% (R)/ 33% (L)), bzgl. uni- oder bilateraler Empfindlichkeiten bei
Palpation der Kaumuskulatur (Probanden 37%, Patienten 93%) sowie des
geringeren Ausmaßes der aktiven Mundöffnung bei RA-Patienten. Sowohl der
klinische als auch der anamnestische Dysfunktionsindex nach HELKIMO
belegten die signifikanten Unterschiede im Vergleich beider Gruppen zugunsten
größerer Werte bei den RA-Patienten. Die Auswertung der MRT-Aufnahmen
wies hinsichtlich der Makromorphologie des Kondylus einen signifikanten Unterschied in Bezug auf den Parameter „Deformation“ (Probanden 0%,
Patienten 40% (R)/43% (L)) auf. Mikromorphologische Veränderungen der
Kompakta des Kondylus (Osteophytenbildungen (Probanden 16% (R)/10% (L),
Patienten 67% (R)/80% (L)) und Erosionen (Probanden 6% (R)/0% (L),
Patienten 47% (R)/40% (L)) sowie der kondylären Spongiosa (Probanden 0%,
Patienten 53% (R)/50% (L)) existierten signifikant häufiger innerhalb der RAGruppe.
Die Kondylus-Diskus-Relation (mundgeschlossen/parasagittal)
differierte ausgehend von einer regelrechten Position (Probanden 67% (R)/83%
(L), Patienten 33% (R)/27% (L)) häufiger zu einer partiellen anterioren
Diskusverlagerung (DV) mit Reposition (Probanden 30% (R)/10% (L), Patienten
33% (R)/37% (L)) sowie zu einer totalen anterioren DV ohne Reposition
(Probanden 0% (R)/3% (L), Patienten 17% (R)/20% (L)) innerhalb der RAGruppe.
Signalreiche Anteile in der bilaminären Zone bzw. im Gelenkspalt, die
auf intraartikuläre Flüssigkeitsansammlungen hinweisen, traten signifikant
häufiger innerhalb der RA-Gruppe auf (Probanden 3% (R)/7% (L), Patienten
80% (R)/90% (L)). Ein Zusammenhang zwischen dem Vorhandensein von
Reibegeräuschen und spezifischen osteoarthrotischen Veränderungen im MRTBefund
sowie ein Zusammenhang zwischen einer klinisch eingeschränkten
Mundöffnung und einer im MRT-Befund nachweisbaren totalen anterioren DV
ohne Reposition konnten jeweils statistisch nachgewiesen werden. Ein
Zusammenhang zwischen einer klinischen Palpationsempfindlichkeit
(intraaurikulär), einer Schmerzhaftigkeit bei passiver Kompression bzw. bei
ventrokaudaler Translation mit dem Vorliegen von intraartikulären
Flüssigkeitsansammlungen im MRT-Befund ließ sich jeweils statistisch nicht
bestätigen. Des Weiteren wurde aufgezeigt, dass die Dauer der Erkrankung an
RA nicht mit den Dysfunktionsindizes nach HELKIMO und ebenso nicht mit
ausgewählten MRT-Befunden (z.B. Deformation des Kondylus,
Osteophytenbildungen/Erosionen der Kompakta des Kondylus, degenerative
Veränderungen der Spongiosa des Kondylus, Deformation des Diskus und
Vorliegen einer totalen anterioren DV ohne Reposition) korreliert.
Die Ergebnisse dieser Studie weisen darauf hin, dass ein an RA erkrankter
Patient mit einer beträchtlichen Wahrscheinlichkeit Dysfunktionen sowie
morphologische Veränderungen im Bereich der Kiefergelenke entwickeln kann,
die eine frühzeitige Untersuchung dieses Gelenkes als sinnvoll erachten lassen.
Antikarzinogene Effekte konnten mehrfach für sowohl klassische NSAIDs als auch für selektive COX-2-Inhibitoren belegt werden, wobei Celecoxib eine herausragende Stellung einnimmt und als einziges NSAID zur Behandlung der familiären adenomatösen Polyposis den Zulassungsstatus erreicht hat. Dimethylcelecoxib (DMC), ein Strukturanalogon des Celecoxibs, zeigte aufgrund einer strukturellen Molekülaufweitung in vitro in Konzentrationen kleiner 100 µM keine Hemmung der COX-2. Dennoch weist dieses Molekül ähnliche antikarzinogene Eigenschaften auf und wird daher häufig als Vergleichssubstanz zu Celecoxib verwendet, um COX-abhängige Mechanismen von COX-unabhängigen zu trennen. In der vorliegenden Arbeit konnte für DMC eindeutig gezeigt werden, dass es in vitro die PGE2-Synthese in den drei humanen Krebszellen HeLa, A-549 und HCA-7 im niedrigen mikromolaren Bereich hemmt. Da DMC weder die COX-Aktivität noch die Proteinexpression der COX-Isoenzyme in HeLa-Zellen beeinflusst, muss diese Substanz mit anderen Enzymen des PGE2-Syntheseweges interagieren. Die mPGES-1 zeigte wie die COX-2 eine gesteigerte Expression in einer Vielzahl von Tumorgeweben. Eine daraus resultierende gesteigerte PGE2-Produktion erwies sich durch die Wirkung auf spezifische Rezeptoren als prokarzinogen. DMC zeigte in einem zellfreien Assay eine Hemmung der mPGES-1-Aktivität bis zu einem maximalen Effekt von 65 % und einer daraus resultierenden IC50 von ca. 16 µM. Daneben konnte DMC in HeLa-Zellen auch die Protein- und mRNA-Expression der mPGES-1 in Konzentrationen größer 15 µM hemmen. Die Analyse der Gesamtprostanoide in Krebszellen nach DMC-Behandlung zeigte eine Hemmung der Synthese aller vorhandenen Prostanoide. Da extern zugesetzte Arachidonsäure diesen Effekt von DMC sowohl in HeLa- als auch in HCA-7-Zellen unterbinden konnte, war eine Hemmung der Arachidonsäurefreisetzung durch Beeinflussung der Phospholipasen A2 nahe liegend. Es konnte für DMC eine Hemmung der cPLA2a-Aktivität in einem in vitro Assay mit einer IC50 von 58 µM gezeigt werden. Die zur Steigerung der Aktivität notwendige Translokation der cPLA2a vom Cytosol zu intrazellulären Membranen sowie die Phosphorylierung am Serin505 blieben wie auch die Gesamtproteinexpression der cPLA2a von DMC unbeeinflusst. Somit konnte für DMC in vitro eine Hemmung von mPGES-1 und cPLA2a nachgewiesen werden. Jedoch wurden in vitro weitaus höhere Konzentrationen an DMC eingesetzt, um diese Enzyme zu hemmen, als für die Hemmung der PGE2-Produktion in intakten Zellen benötigt wurde. Für die bereits wiederholt gezeigte antiproliferative Wirkung von DMC in vitro konnte die PGE2-Unabhängigkeit bestätigt werden. Aufgrund der hier dargestellten Ergebnisse kann DMC jedoch nicht mehr als COX- und Prostaglandin-unabhängige Kontrollsubstanz im Vergleich zu anderen Coxiben eingesetzt werden. Für die mehrfach beschriebenen antiproliferativen Wirkungen von Celecoxib und DMC sowie die Hemmung der identifizierten Zielmoleküle wurden in vitro meist sehr hohe Konzentrationen benötigt. Die Relevanz dieser Ergebnisse wird daher stark diskutiert, da die in vivo erreichten Plasmakonzentrationen von Celecoxib nicht mit den hohen Konzentrationen in vitro korrelieren. Im zweiten Teil dieser Arbeit wurde zunächst gezeigt, dass DMC und Celecoxib eine intrazelluläre Anreicherung in verschiedenen humanen Krebszelllinien und in vaskulären Endothelzellen aufweisen. In den untersuchten Zellsystemen wurden im Vergleich zu den restlichen Coxiben für Celecoxib und DMC ca. 5 - 10-fach höhere intrazelluläre Konzentrationen erreicht, die linear von den eingesetzten Konzentrationen abhängig waren. DMC und Celecoxib zeigten dabei eine Akkumulation in zelluläre Membranstrukturen und hier insbesondere eine Interaktion mit den lipophilen Bestandteilen des Phospholipidbilayers, was mittels subzellulärer Fraktionierung und zweidimensionaler 1H MAS NOESEY NMR-Spektroskopie nachgewiesen werden konnte. Die intrazelluläre Anreicherung für DMC und Celecoxib ist vermutlich vom Zelltyp und der Lipidzusammensetzung der vorliegenden Membran abhängig, da dieser Effekt in Fibroblasten nicht bestätigt werden konnte. Des Weiteren konnte gezeigt werden, dass die Beeinflussung der Membranintegrität neben der Anreicherung in Phospholipidmembranen zu einer effizienteren COX-2-Hemmung durch Celecoxib im Vergleich zu Rofecoxib und Etoricoxib in HCA-7 Zellen führte. Im humanen COX-2-Vollblutassay wurden hingegen ähnliche Effektivitäten der Coxibe auf die COX-2 nachgewiesen. Eine Steigerung der Wirksamkeit von Celecoxib oder DMC auf Membran-gebundene oder Membran-assoziierte Enzyme, die eine Affinität gegenüber diesen Substanzen aufweisen, wäre somit denkbar und würde speziell in solchen Krebszellen eine Rolle spielen, wo durch eine erhöhte Aktivität dieser Enzyme eine verstärkte Proliferation und Überlebensrate nachgewiesen werden konnte. Pharmakokinetische Studien zeigten für Celecoxib im Vergleich zu anderen Coxiben ein vielfach höheres Verteilungsvolumen. Somit besteht die Möglichkeit, dass sich Celecoxib in solche tieferen Kompartimente einlagert, die vermehrt durch hydrophobe Membranstrukturen gekennzeichnet sind. Aufgrund der hier beschriebenen Ergebnisse ist anzunehmen, dass in intakten Zellen die Wirkung von Celecoxib und DMC auf Zielmoleküle mit einer gewissen Affinität zu diesen Substanzen stärker ist als in vitro und so die Diskrepanz zwischen den Wirkkonzentrationen in vitro und in vivo erklärt werden kann.
Einleitung: Glioblastome, die aggressivsten malignen Gehirntumore, gehören zu den menschlichen Karzinomen mit der schlechtesten Prognose. Ihre Therapie stellt eine große Herausforderung dar. Eine komplette chirurgische Entfernung des Tumors ist auf Grund des infiltrativen Wachstums in gesundes Hirngewebe meist nicht möglich, und trotz der Standardtherapie, die Operation, Chemo- und Radiotherapie umfasst, sind die Behandlungserfolge nicht zufriedenstellend. Erschwerend kommt hinzu, dass das Gehirn vom übrigen Organismus durch die hochselektive Blut-Hirn-Schranke abgegrenzt ist, welche für viele potentiell wirksame therapeutische Substanzen eine Permeabilitätsbarriere darstellt. Somit stehen viele Zytostatika für die systemische Glioblastomtherapie nicht zur Verfügung und eine relative Therapieresistenz ist zu verzeichnen.
Nicht nur die Neuentwicklung von Arzneistoffen für die Pharmakotherapie von Erkrankungen des zentralen Nervensystems, wie den Gehirntumoren, sondern auch die Etablierung neuer Arzneiformen zur kontrollierten, gewebsspezifischen Arzneistoffapplikation gewinnt immer mehr an Bedeutung.
Ein Ansatz, der in der Vergangenheit vielversprechende Erfolge erzielte, ist die Einbettung von Arzneistoffen in kolloidale Trägersysteme wie polymere Nanopartikel oder Liposome. Diese Carrier sind in der Lage verschiedene Arzneistoffe über die Blut-Hirn-Schranke zu transportieren, damit diese im zentralen Nervensystem ihre Wirkung ausüben können. Der Grund für diesen Erfolg ist offensichtlich begründet in der nanopartikulären Größe und der besonderen Oberflächenstruktur dieser Träger. Zusätzlich geht mit der vermehrten Anreicherung der Wirkstoffe im Zentralnervensystem eine Verminderung der unerwünschten Arzneimittelwirkungen in peripheren Organen einher, was die Therapie positiv beeinflusst.
In der vorliegenden Arbeit wird die antitumorale Effizienz nanopartikulärer Formulierungen, die den Wirkstoff Doxorubicin enthalten, eingehend untersucht. Hierbei liegt der Schwerpunkt auf der histologischen und immunhistochemischen Analyse der Gehirntumore, die eine genaue
Differenzierung zwischen den Zubereitungen und eine aussagekräftige Effizienzbeurteilung erlaubt. Weiterhin wird der Fokus dieser Arbeit auf die Quantifizierung der Doxorubicinmenge gerichtet, die nach Applikation der nanopartikulären Formulierungen im Gehirn vorliegt.
Enthält u.a. die Publikationen:
Publikation 1:
Transport of drugs across the blood-brain barrier by nanoparticles – A review
Journal of Controlled Release – Special Issue: Drug delivery research in Europe
Status: accepted, geplantes Erscheinungsdatum: 01.2012
Publikation 2:
Increased numbers of injections of doxorubicin bound to nanoparticles lead to enhanced efficacy against rat glioblastoma 101/8
Wohlfart et al. 2009, Journal of Nanoneuroscience, Volume 1, Number 2, December 2009, pp. 144-151 (8)
Publikation 3:
Treatment of glioblastoma with poly (isohexyl cyanoacrylate) nanoparticles
Wohlfart et al. 2011, International Journal of Pharmaceutics 415 (2011) 244-251
Publikation 4:
Drug delivery to the brain using surfactant-coated poly (lactide-co-glycolide)
nanoparticles: Influence of the formulation parameters
Gelperina et al. 2010, European Journal of Pharmaceutics and Biopharmaceutics 74 (2010) 157–163
Publikation 5:
Efficient chemotherapy of rat glioblastoma using doxorubicin-loaded PLGA nanoparticles with different stabilizers
Wohlfart et al. 2011, PloS One May 2011, Volume 6, Issue 5, e 19121
Publikation 6:
Kinetics of transport of doxorubicin bound to nanoaprticles across the blood-brain barrier
Wohlfart et al. 2011, Journal of Controlled Release (2011),
doi:10.1016/j.jconrel.2011.05.010, in press
Ziel der vorliegenden experimentellen Untersuchung war die Erfassung und vergleichende Beurteilung der mechanischen Belastbarkeit sowie des Frakturverhaltens von karbonfaserverstärkten, keramischen und palladiumfreien Wurzelstiftsystemen. Des Weiteren galt es, die Ergebnisse im Vergleich zum Permador®-Stift, dessen Bewährung in einer vorangegangenen klinischen Untersuchung nachgewiesen wurde, und zu wurzelgefüllten Zähnen zu überprüfen. Gegenstand der Untersuchung waren der palladiumhaltige Permador®-Stift, die palladiumfreien Stiftaufbausysteme AF1, ER® Pt-IR, die keramischen Stifte Cerapost®, Celay® Alumina und Celay® Zirkonia sowie der Karbonfaserstift Composipost®. Als Kontrollgruppe dienten wurzelgefüllte, nicht stiftversorgte Wurzeln. Um die Streuung der Messwerte, die durch die individuell unterschiedliche Dimensionierung und Morphologie von extrahierten natürlichen Frontzähnen beeinflusst werden, zu minimieren, fanden künstliche Zähne aus dem lichthärtenden BisGMAKomposit Estilux hybrid VS posterior (Heraeus Kulzer, Wehrheim/Ts.), Verwendung. Dessen Elastizitätsmodul beträgt nach Aushärtung 19.000 MPa und entspricht somit dem Wert des natürlichen Dentins. Die Herstellung der Wurzeln, Aufbauten und Kronen fand mit sogenannten Modeln statt, wodurch die Herstellung identischer Prüfkörper gewährleistet wurde. Als Aufbaumaterial fand für die metallischen Stiftsysteme ein Phantom-Metall, für das Cerapost®- und Composipost®-System ein Komposit und für die kopiergefrästen Systeme Celay® Alumina und Celay® Zirkonia-Keramik Verwendung. Sämtliche Stiftverankerungen wurden, nach Konditionierung mit dem Rocatec®-Verfahren, mit Panavia® 21 in den Wurzeln zementiert. Im Anschluss erfolgte die Zementierung standardisierter Kronen aus Phantommetall auf allen Wurzeln. Die zyklische Wechselbelastung (1,2x106 Zyklen; 1,4 Hz und 30 N) wurde im Willytec-Kausimulator Version 3.1. (Fa. Willytec, München) vorgenommen. Die Simulation der Wurzelhaut für die Wechsel- und die Bruchbelastung wurde durch Einbettung der Wurzeln in einem Elastomer (Permadyne® Garant; Espe, Seefeld) vorgenommen. In einer Universal-Prüfmaschine (Zwicki 1120; Zwick, Ulm) (Vorschubgeschwindigkeit 0,5 mm/min) wurden die Versuchszähne palatinal, 2 Millimeter unterhalb der Inzisalkante, unter einem Winkel von 135° bis zum Bruch der Wurzel belastet. Hinsichtlich der Bruchlast ergaben die Medianwerte folgende Resultate: Metallstifte: Permador®: 475,4 N; AF1: 444,7 N; ER Pt-Ir: 422,4 N. Der KRUSKAL-WALLIS-Test mit BONFERRONI-Korrektur (p ≤ 0,05) zeigte keine signifikanten Unterschiede zwischen diesen drei Stiftsystemen einerseits und der Kontrollgruppe andererseits. Für die keramischen Stifte wurden 432,2 N [Celay® Alumina], 488,8 N [Celay® Zirkonia] bzw. 416,4 N [Cerapost®] und für den Karbonfaserstift [Composipost®] 515,7 N ermittelt. Bei der Kontrollgruppe trat eine Bruchlast von 363,4 N auf. Bezüglich der Bruchlastwerte lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse zwischen dem kopiergefrästen Keramikstiftaufbau Celay® Zirkonia aus zirkoniumoxidverstärkten Al2O3 einerseits bzw. dem Karbonfaserstift Composipost® und der Kontrollgruppe andererseits signifikante Unterschiede vor (p ≤ 0,05). Die ermittelten Distanzen zwischen Kraftangriffspunkt und den oberen Bruchspaltenden ergaben Medianwerte von 8,0 mm bis 11,1 mm auf der vestibulären Seite und 7,6 mm bis 14,7 mm auf der palatinalen Seite der Wurzeloberfläche. Bezüglich der Distanzen der Frakturverläufe lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse nur palatinal zwischen dem Cerapost®-Stift einerseits und dem Celay® Alumina-Stift und der Kontrollgruppe andererseits signifikante Unterschiede vor. Die vorliegende Studie zeigt, dass hinsichtlich der Bruchlastwerte nach dynamischer Belastung der Karbonfaserstift Composipost® und, bei hohen ästhetischen Ansprüchen, der kopiergefräste Keramikstift Celay® Zirkonia als interessante Alternative zum klinisch bewährten Permador®-Stift zu sehen sind. Des Weiteren zeigt die Untersuchung, dass sich die Verwendung palladiumfreier Stiftsysteme nicht nachteilig auf das Bruchverhalten nach dynamischer Belastung auswirkt.
Die N- und O-Glykosylierung von Proteinen ist gekennzeichnet durch eine hohe strukturelle und funktionelle Komplexität. Da verschiedene Glykanstrukturen und Glykosylierungsstellen selbst innerhalb eines Proteins unterschiedliche Aufgaben erfüllen können, ist sowohl für die Grundlagenforschung als auch für die Pharma-Industrie eine stellenspezifische Analytik zur Aufklärung der biologischen Bedeutung und bei therapeutischen Proteinen zur Gewährleistung von Sicherheit und gleichbleibenden pharmakologischen Eigenschaften essentiell. Die niedrige Abundanz sowie die hohe Komplexität durch die variablen Glykanzusammensetzungen und Verzweigungsmöglichkeiten sowie der daraus resultierende Mikroheterogenität an jeder einzelnen Stelle stellt jedoch eine besondere Herausforderung an die Analytik dar. In dieser Arbeit wurden deshalb auf verschiedenen Ebenen der Probenvorbereitung, der chromatographischen Separation sowie der MS-Analyse- Methoden und Techniken entwickelt und charakterisiert, um die stellenspezifische Analytik der Proteinglykosylierung zu vereinfachen.
In einem ersten Schritt wurde die hohe Komplexität eines Glykoproteinverdaus reduziert. Es wurden verschiedene Methoden zur Glykopeptidanreicherung miteinander verglichen, wobei sich die HILIC-Festphasenextraktion unter optimierten Bedingungen durch eine sehr hohe Selektivität und Effizienz auszeichnete. Zur Methodenoptimierung wurden verschiedene HILIC-Materialien (Silika, Amino, Mikrokristalline Cellulose, TSKgel Amide-80 und ZIC®-HILIC) eingesetzt und durch eine Variation der Anreicherungsbedingungen die Hauptretentionsmechanismen für jedes Material beschrieben. TSKgel Amide-80 sowie ZIC®-HILIC sind am besten geeignet, da unter optimierten Bedingungen sekundäre Retentionsmechanismen wie elektrostatische Wechselwirkungen deutlich reduziert werden und die hydrophile Verteilung den Hauptretentionsmechanismus darstellt. Des Weiteren wurde gezeigt, dass Parameter wie die Pufferzusammensetzung, Inkubationszeiten und die Volumenverhältnisse zwischen HILIC-Suspension, Binde-, Wasch- und Elutionspuffer entscheidend die Reproduzierbarkeit, Ausbeute und Selektivität beeinflussen. Unter Berücksichtigung dieser Beobachtungen wurde ein Protokoll entwickelt, mit welchem Glykopeptide selektiv und quantitativ, d.h. ohne Präferenz für bestimmte Glykanstrukturen, aus komplexen Proben angereichert werden können. In Kombination mit Titandioxid zur selektiven Anreicherung sialylierter Glykopeptide bei bestimmten Fragestellungen ermöglichten in dieser Arbeit beide Methoden eine detaillierte Charakterisierung sowohl von N- als auch von O-Glykopeptiden. Die Hydrazinchemie erwies sich aufgrund eines zu komplexen Arbeitsschemas und einer unzureichenden Wiederfindung als nicht geeignet.
Da je nach Aminosäuresequenz oft mit einer einzigen Protease (z.B. Trypsin) nicht alle Glykosylierungsstellen aufgrund ihrer Eigenschaften (z.B. Größe, Hydrophobizität) für die Anreicherung und LC-MS-Analyse zugänglich sind, kamen in dieser Arbeit weitere Proteasen zum Einsatz. Durch eine sequentielle Kombination von Trypsin mit Endoproteinase Glu-C bzw. Trypsin mit Chymotrypsin konnten in allen Proteinen sämtliche N-Glykosylierungsstellen nach einer Anreicherung identifiziert werden. Bei der Analyse von O-Glykopeptiden verbesserte zusätzlich die N-Deglykosylierung des intakten Proteins und die Abtrennung der freien N-Glykane mittels Ultrafiltration vor der Anreicherung die Analytik. Neben den bereits für die N-Glykopeptide beschriebenen Enzymkombinationen wurde außerdem Proteinase K eingesetzt, um die O-Glykopeptide z.B. von Fetuin effizient anzureichern und mittels LC-ESI-MS2/MS3 zu charakterisieren. Dies war mit einem Trypsinverdau alleine nicht möglich.
Die Komplexität nach einer Glykopeptidanreicherung ist jedoch aufgrund unterschiedlicher Glykanstrukturen und Glykosylierungsstellen immer noch so hoch, dass bei 1-dimensionalen HPLC-Läufen Koelution von Glykopeptiden zu einer unzureichenden Detektion niedrig-abundanter Formen führen kann. Aus diesem Grund wurden die komplementäre HPLC-Phasen RP18 und ZIC®-HILIC eingesetzt, um sich chromatographisch die differenzierenden Eigenschaften von Peptidgerüst und Glykanrest zunutze zu machen. ZIC®-HILIC ermöglicht die Auftrennung überwiegend nach der Glykanstruktur und RP18e nach Peptidsequenz und Anzahl an Sialinsäuren. Durch die Kombination beider Phasen in 1- und 2-dimensionalen HPLC-Konfigurationen konnten deutlich mehr unterschiedliche Glykoformen nachgewiesen und die Detektion niedrig-abundanter Glykopeptide ermöglicht werden, die bei der Verwendung von nur einer stationären Phase nicht identifiziert werden konnten.
Zusammen mit einer komplementären MS-Analytik, die sowohl ESI als auch MALDI sowie unterschiedliche Fragmentierungstechniken wie CID, ETD, PSD oder CID-MS2/MS3 umfasste, konnten N- und O-Glykopeptide stellenspezifisch und vollständig sowohl mit ihrem Peptid- als auch mit ihrem Glykananteil charakterisiert werden.
Für bestimmte quantitative Fragestellungen wurden außerdem die beschriebenen Anreicherungsmethoden mit dem zur Quantifizierung eingesetzten N-Glycan Mapping kombiniert und ein Arbeitschema entwickelt, mit welchem bei einem mehrfach glykosylierten Protein die Verhältnisse der unterschiedlichen Glykanstrukturen an den einzelnen Glykosylierungsstellen getrennt voneinander quantifiziert werden können.
Mit jeder einzelnen, in dieser Arbeit beschriebenen Methode wird ein beträchtlicher Informationsgewinn erzielt, doch erst durch die Kombination einer effizienten Probenvorbereitung, einer komplementären HPLC-Separation, verschiedener MS/MS-Techniken und Methoden zur Quantifizierung kann die Glykosylierung eines komplexen Proteins stellenspezifisch und detailliert beschrieben werden.
Die Temporallappenepilepsie ist eine der häufigsten vorkommenden Epilepsieformen. Sie geht meist mit Schädigungen der Strukturen im Bereich des medialen Temporallappens einher, welche eine sehr wichtige Rolle bei der Verarbeitung der Emotionen und bei Gedächtnisprozessen spielen. In dieser Arbeit sollten die Auswirkungen einer Temporallappenepilepsie auf emotionale Gedächtnisprozesse untersucht werden. Dafür wurden in der Zeit von März 2006 bis März 2007 insgesamt 31 Patienten der Spezialambulanz für Epilepsie an der Klinik für Neurologie der Johann-Wolfgang-Goethe Universität Frankfurt am Main, die an einer eindeutig nachgewiesenen Temporallappenepilepsie leiden, getestet. Später wurden 5 Patienten wegen psychiatrischer Erkrankungen aus der Studie ausgeschlossen. Zum Vergleich wurden im gleichen Zeitraum 21 neurologisch und psychiatrisch unauffällige Probanden, die im Alter und im Ausbildungsstand den Patienten ungefähr gleich waren, getestet. Alle Probanden mussten 10 Wortlisten lernen, die jeweils ein emotional negatives Wort und ein perzeptiv auffälliges Wort beinhalteten. Nach einer kurzen Ablenkungsphase nach jeder Liste sollten sie diese Worte in einer anderen Wortliste wiedererkennen. Außerdem sollten sie am Ende der Testung alle Worte, die ihnen noch in Erinnerung waren, aufzählen. Bei den Patienten wurde zusätzlich noch eine neuropsychologische Testung vorgenommen, um krankheitsbedingte Leistungsdefizite zu erkennen. Die Ergebnisse zeigen, dass die Patienten in den allgemeinen Leistungen kognitive Defizite gegenüber den gesunden Probanden aufweisen, und dass der Lernmechanismus für emotionale Worte bei den gesunden Probanden anders ist als bei den Patienten. So kommt es bei den gesunden Probanden zu einem besseren Wiedererkennen der emotionalen Worte und einer retrograden Amnesie für das vorherige Wort. Bei den Patienten hingegen finden sich keine signifikanten Unterschiede in der Häufigkeit mit der die verschiedenen Worte wiedererkannt werden, obwohl die emotional negativen Worte mit der gleichen Intensität empfunden werden. Teilt man die Patienten in Untergruppen auf, sozeigen sich Zusammenhänge der Erinnerungshäufigkeiten mit verschiedenen Faktoren, wie den Ergebnissen für das Verbalgedächtnis im neuropsychologischen Test, dem Vorliegen einer Hippokampussklerose, der Anzahl der Ausbildungsjahre und der Art der Anfälle. Diese Zusammenhänge lassen darauf schließen, dass eine größere Ausdehnung der Schädigung auch den bei der Kontrollgruppe beschriebenen Effekt des emotionalen Lernens stärker reduziert. Außerdem zeigen sich besonders bei Patienten mit höherem Ausbildungsstand Verlagerungen der Lernstrategien auf andere Arten der Auffälligkeit, in diesem Fall auf perzeptiv auffallende Worte.
Hintergrund: Patienten mit einer Lese- und Rechtschreibstörung (LRS) sind von einer langfristigen Behinderung betroffen, die sich nachteilig auf die schulische und soziale Entwicklung auswirkt. Insbesondere stellt die Lesekompetenz einen Grundbaustein der individuellen Bildung dar, ohne die ein fächerübergreifendes Lernen nicht möglich ist. Es besteht die Vermutung, dass die Diagnostik und folglich auch die Therapie der isolierten Rechtschreibstörung in der klinischen Praxis überwiegen und Kinder mit einer (isolierten) Lesestörung übersehen werden. Diese Studie beschäftigt sich mit der Frage, ob Lesestörungen unerkannt bleiben. Ferner ist bekannt, dass Patienten mit einem Asperger-Syndrom bei guter Lesefertigkeit, häufig Defizite im Bereich des Leseverständnisses aufweisen. Es wird untersucht, ob ein Zusammenhang zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik besteht. Patienten und Methode: In einem dreimonatigen Zeitraum (T 2: 09/07 – 11/07) werden alle ambulanten und stationären Neuaufnahmen (8 - 17 Jahre) hinsichtlich ihrer Lese- und Rechtschreibfähigkeit sowie autistischer Symptomatik untersucht. Nach Anwendung der Ausschlusskriterien nehmen N = 104 Patienten an den Gruppentestungen teil, die jeweils einen IQ-Test, je nach Altersgruppe zwei bis drei Lesetests und einen Rechtschreibtest beinhalten. Die Eltern der Kinder füllen einen Autismus-, psychopathologischen und Zusatzfragebogen aus. Die Ergebnisse der Leistungstests werden mit den Diagnosestellungen des gleichen Zeitraumes aus dem Jahr 2006 (T 1: 09/06 – 11/06) verglichen, wobei zu dieser Zeit keine forcierten Testungen stattfanden. Ergebnisse: Im Zeitraum T 2 wiesen 14 Patienten (13,5%) eine isolierte Lesestörung auf. Dies entspricht einer viermal häufigeren Diagnosestellung als im Jahr zuvor, bei der nur 3 Patienten (3,3 %) eine alleinige Lesestörung aufwiesen (p = .013). Bei 16 (15,4%) Probanden konnte eine isolierte Rechtschreibstörung diagnostiziert werden. 2006 wurden nur 6 (6,7 %) Kinder mit dieser Diagnose ermittelt (p = .056). Die Diagnose der LRS (F81.0) erhielten im Jahr 2007 20 Kinder (19,2%). Im Jahr zuvor fanden sich bloß 8 (8,9%) Kinder mit einer LRS (F81.0) (p = .041). Die Ergebnisse im Autismusscreening konnten keine Zusammenhänge zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik bestätigen. Schlussfolgerung: Lesestörungen bleiben unerkannt. Für ihre Diagnostik ist es von essentieller Bedeutung, bei Vorliegen eines klinischen Verdachts stets Testungen zu Lese- und Rechtschreibstörungen durchzuführen. Einer Routinetestung aller Neuaufnahmen kann jedoch nicht angeraten werden. Es empfiehlt sich alle Patienten zu testen, die eine typische Begleitstörung der LRS aufweisen, z.B. hyperkinetische Störungen.
This thesis investigates the acquisition pace and the typical developmental path in eL2 acquisition of selected phenomena of German morphosyntax and semantics and compared them to monolingual acquisition. In addition, the influence of ‘Age of Onset’ and of external factors on eL2 acquisition is examined.
To date, the most studies on eL2 acquisition focused on language production. Based on mostly longitudinal spontaneous speech data of only small number of children, they indicate that eL2 learners acquire sentence structure and subject-verb-agreement faster than monolingual children, whereas the acquisition of case marking causes them more difficulties. Moreover, similar developmental paths to those of monolingual children are claimed. Only several studies examined comprehension abilities in eL2 learners, however overwhelmingly in cross-sectional design. The findings from comprehension studies on telic and atelic verbs, and on wh-questions indicate that eL2 children acquire their target-like interpretation faster than monolingual children. The same acquisition stages towards target-like interpretation like in monolingual acquisition are assumed as well. Taking together, to date, no study exists, that examines comprehension and production abilities in a large group of eL2 learners of German in a longitudinal design.
This thesis extends the previous results by investigating pace of acquisition, impact of factors, and individual developmental paths in a longitudinal design with large groups of participants. Language data of 29 eL2 learners of German (age at T1: 3;7 years, LoE: 10 months) and 45 monolingual German-speaking children (age at T1: 3;7) are examined. The eL2 learners were tested in six test rounds (age at T6: 6;9 years). The monolingual children were tested in five test rounds (are at T5: 5;7). The standardized test LiSe-DaZ (Schulz & Tracy, 2011) was employed to examine children’s language skills.
eL2 learners show a significantly greater rate of change, thus faster acquisition pace, than monolingual children in the following scales: comprehension of telicity, comprehension of wh-questions, production of prepositions, and production of conjunctions. These phenomena are acquired early in monolingual children. No differences regarding acquisition pace between eL2 children and monolingual children are found for comprehension of negation, production of case marking, and production of focus particles. These phenomena are acquired late in monolingual development and involve semantic and pragmatic knowledge. The findings of faster acquisition pace of several phenomena are in line with several studies that reported that eL2 children develop faster than monolingual children.
Independent on whether a phenomenon is acquired early or late, no effects of external factors on eL2 children’s performance are found. These findings indicate that acquisition of core, rule-based phenomena is not sensitive to external factors if the first exposure to L2 takes place around the age of three.
Moreover, eL2 children show the same developmental stages and error types in comprehension of telicity, comprehension of negation, production of matrix and subordinate clauses. This is also independent on how fast they acquire a structure under consideration. Thus, these findings provide a further support for similar developmental paths of eL2 and monolingual children towards target-like comprehension and production.
Analyse und Vorhersage von Kristallstrukturen tetraederförmiger Moleküle und fehlgeordneter Phasen
(2012)
Die Kristallstrukturen tetraederförmiger EX4-Moleküle mit E = C, Si, Ge, Sn, Pb und X = F, Cl, Br, I konnten in sieben Strukturtypen eingeteilt werden. In fast allen Verbindungen nehmen die Halogenatome eine verzerrte Kugelpackung (ccp, hcp, bcc, cp) ein. Die E-Atome besetzen in den dichtesten Kugelpackungen 1/8 aller Tetraederlücken, wobei sich für diese Atome ebenfalls eine Anordnung wie für verzerrte Kugelpackungen ergibt (cp, ccp, hcp). In den anderen Fällen (bcc, cp für die Anordnung der Halogenatome) ergibt sich für die Anordnung der E-Atome selbst ebenfalls eine verzerrte Kugelpackung (bcc, s). Dabei steht s für die Anordnung der E-Atome analog der Schwefelatome im Pyrit (FeS2). Jeder Strukturtyp unterscheidet sich in der Art der kürzesten Halogen-Halogen-Wechselwirkungen. Die in der Literatur für halogenierte organische Verbindungen beschriebenen Typen der Wechselwirkung lassen sich auch bei den EX4-Verbindungen finden. Die E-X-X-Winkel liegen in einem Bereich von 80-100° und 130-160° und sind damit etwas kleiner als für die halogenierten organischen Verbindungen. Mit Hilfe von Gitterenergieminimierungen konnten diverse potentielle Polymorphe für die EX4-Verbindungen vorhergesagt werden.
Eine vollständige Kristallstrukturvorhersage wurde für SiBr4 durchgeführt. Für diese Vorhersage wurden die Van-der-Waals-Parameter neu bestimmt. Dazu wurde das Br-Br-Potential mit Hilfe von Vergleichsrechnungen an den beiden experimentellen Strukturen des GeBr4 in den Raumgruppentypen Pa3, Z = 8 (s/ccp), und P21/c, Z = 4 (hcp/hcp), optimiert. Für die Vorhersage des SiBr4 konnten zwei der vorhergesagten Strukturen durch extern durchgeführte Kristallisationsexperimente bestätigt werden. Eine Hochtemperaturmodifikation kristallisiert oberhalb von 168K im Raumgruppentyp Pa3, Z = 8 im Strukturtyp s/ccp. Diese Struktur konnte bei der Vorhersage auf Rang 9 gefunden werden. Die Tieftemperaturmodifikation, die unterhalb von 168K vorliegt, kristallisiert im Raumgruppentyp P21/c, Z = 4 (Strukturtyp hcp/hcp). Diese Struktur hat Rang 4 der Vorhersage. Die vorhergesagten und experimentellen Strukturen zeigen nur geringe Abweichungen voneinander.
Für die tetraederförmigen E(CH3)4-Moleküle wurden für Tetramethylsilan und Tetramethylgerman vollständige Kristallstrukturvorhersagen durchgeführt. Die energetisch günstigste Struktur ist für beide Verbindungen im Raumgruppentyp Pa3 mit Z = 8 zu finden. Die energetisch zweitgünstigste Struktur hat den Raumgruppentyp Pnma mit Z = 4. Für Tetramethylsilan konnten die Strukturen mit Rang 1 und 2 experimentell bestätigt werden. Eine Hochdruckmodifikation des Tetramethylsilans kristallisiert im Raumgruppentyp Pa3 mit Z = 8. Diese Struktur entspricht der berechneten energetisch günstigsten Struktur auf Rang eins. Ihr konnte der Strukturtyp s/ccp zugeordnet werden. Mit Tieftemperatur-Röntgenpulverbeugungsexperimenten konnte eine Tieftemperaturmodifikation bei T = 100 K im Raumgruppentyp Pnma, Z = 4, mit Strukturtyp ccp/hcp gefunden werden.
Gitterenergieberechnungen wurden für die Strukturanalysen von drei fehlgeordneten Phasen eingesetzt. Experimentell bestimmte Kristallstrukturen von Azulen und Pigment Red 194 haben den Raumgruppentyp P21/c, Z = 2. Die Moleküle befinden sich dabei auf einer Punktlage mit Inversionssymmetrie. Da beide Moleküle kein Inversionszentrum aufweisen, kommt es zu einer Orientierungsfehlordnung. Für die rechnerische Analyse der Fehlordnung wurden jeweils sechs geordnete Modelle ausgehend von den fehlgeordneten Strukturen erstellt, die möglichst wenige Moleküle pro Elemenarzelle aufweisen sollten. Gitterenergieberechnungen und die Auswertung der Boltzmann-Verteilung zeigten, dass in bei beiden Kristallstrukturen eine statistische Fehlordnung der Moleküle vorliegt, die sich aus mehreren geordneten Modellen aufbauen lässt. Bei Azulen ist eine geordnete Struktur im Raumgruppentyp Pa, Z = 4, energetisch etwas günstiger als die anderen Modell. Für Pigment Red 194 zeigte sich, dass die Fehlordnung unter der Annahme, dass nur die berechneten Modelle die fehlgeordnete Struktur bilden, mit über 99%iger Wahrscheinlichkeit aus den vier energetisch günstigsten Modellen Pc, Z = 2, P21, Z = 2, P21/c, Z = 4 und Pc, Z = 4 besteht.
Die dritte untersuchte fehlgeordnete Struktur ist die des Natrium-p-chlorphenylsulfonat-Monohydrats. Die Fehlordnung bezieht sich hier nur auf die Phenylringe, die dort mit einer Besetzung von 50% zueinander senkrecht stehen. Mit Hilfe der Order-Disorder-Theorie konnten zwei geordnete Modelle im Raumgruppentyp P21/c und ein weiteres geordnetes Modell im Raumgruppentyp C1c1 (Z = 16, Z'= 2) aufgestellt werden. Gitterenergieminimierungen dieser Modelle zeigten, dass sich die Fehlordnung statistisch aus allen drei Modellen zusammensetzt. Das energetisch günstigste geordnete Modell im Raumgruppentyp P21/c, Z = 8 (Z' = 2), konnte als verzwillingte Struktur aus Einkristalldaten bestätigt werden.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
Chemieunterricht in der Schule wird von Schülerinnen und Schülern in weiten Bereichen als schwer verstehbar, für das Alltagsleben als unnütz und wenig motivierend erlebt. Dies hat zur Folge, dass der Chemieunterricht von einer großen Zahl Lernender in der Oberstufe abgewählt wird. Dabei wird bewusst die Bedeutung der Chemie für die Industriegesellschaft ignoriert und die Konsequenz des Nachwuchsmangels nicht ernst genommen.
Bei der Suche nach Lösungsansätzen aus der Krise des schulischen Chemieunterrichts gibt es viele Ansätze, die sich seit einigen Jahrzehnten mit der Kontextorientierung und der Erschließung neuer Felder für den Chemieunterricht befasst haben und befassen. Ausgehend von Themen, deren Bedeutung für das Individuum und die Gesellschaft einen hohen Stellenwert haben, wird der Chemieunterricht mehr an die Lebenswelt der heranwachsenden Generation angepasst. Diese Vorgaben sind in der vorliegenden Arbeit einbezogen worden und haben das Thema HIV für den Chemieunterricht der gymnasialen Oberstufe als sinnvoll erscheinen lassen.
Vor dem Hintergrund der kognitionspsychologischen Erkenntnisse der vergangenen fünfzehn Jahre ist ein Weg der Unterrichtsgestaltung gewählt worden, mit dem die Selbständigkeit der Lernenden unterstützt, gefördert und weiterentwickelt werden kann. Kognitionspsychologische Untersuchungen der Eingangskanäle bei Lernvorgängen stellen die hohe Bedeutung mehrer Sinnesmodalitäten in den Vordergrund, durch die eine verbesserte Behaltensleistung erzielbar ist. Nach diesen Erkenntnissen kann Wissen nur dann als aktives Wissen in neuen Zusammenhängen eingesetzt werden, wenn Lernern die Möglichkeit geboten wird ihr individuelles Gedankengebäude zu konstruieren. Besonders effizient sind nach diesen Untersuchungen kombinierte Sinnesmodalitäten mit guter Behaltensleistung bei der Nutzung von Sprache, Text und Bewegtbildern. Hier gilt die alte Erkenntnis "ein Bild sagt mehr als tausend Worte" auch im übertragenem Sinne. Besonders die konstruktivistischen Überlegungen für den Vorgang des Wissensaufbaus wurden in dieser Arbeit berücksichtig.
Diese Forschungsergebnisse waren ein Grund für die multimediale Aufbereitung des Themas. Hoher Verbreitungsgrad, gesellschaftliche Bedeutung und Motivation durch Multimedia sind weitere Gründe für diese Entscheidung.
Sowohl curriculare als auch gesellschaftliche Entwicklungen fordern darüber hinaus das Denken in vernetzten Systemen, dies bedeutet ein über die Grenzen des Fachs Chemie hinausgehendes Planen und Realisieren von Unterricht. Mit der Themenwahl werden direkt die Fächer Chemie und Biologie angesprochen, Fächer wie Kunst, Religion, Ethik, Sozialkunde und Sprachen können einbezogen werden. Mit dem der Unterrichtseinheit, die von fünf Kursen mit insgesamt 60 Schülerinnen und Schülern erprobt wurde, zu Grunde liegenden Programm zum Thema HIV verknüpfen sich die Fragen:
* Ist der Einsatz von Computern als Medium bereits die Norm?
* Welche medialen Angebote werden schulisch/außerschulisch genutzt?
* Welche Informationsquellen werden verwendet?
* Welche Medien sind für die Testpersonen beim Lernprozess bedeutend?
* Wird die Lehrperson bei dem Einsatz der modernen Medien ersetzt?
* Fördert das Projekt die Selbstbestimmung beim Lernprozess?
* Welche Effekte hat das multimediale Projekt auf den Lernprozess?
* Welche Probleme treten beim Umgang mit dem verwendeten Programm auf?
Diese Punkte wurden mit einem Fragebogen vor und einem nach der Durchführung des Projektes bearbeitet...
Proteins are biological macromolecules playing essential roles in all living organisms.
Proteins often bind with each other forming complexes to fulfill their function. Such protein complexes assemble along an ordered pathway. An assembled protein complex can often be divided into structural and functional modules. Knowing the order of assembly and the modules of a protein complex is important to understand biological processes and treat diseases related to misassembly.
Typical structures of the Protein Data Bank (PDB) contain two to three subunits and a few thousand atoms. Recent developments have led to large protein complexes being resolved. The increasing number and size of the protein complexes demand for computational assistance for the visualization and analysis. One such large protein complex is respiratory complex I accounting for 45 subunits in Homo sapiens.
Complex I is a well understood protein complex that served as case study to validate our methods.
Our aim was to analyze time-resolved Molecular Dynamics (MD) simulation data, identify modules of a protein complex and generate hypotheses for the assembly pathway of a protein complex. For that purpose, we abstracted the topology of protein complexes to Complex Graphs of the Protein Topology Graph Library (PTGL). The subunits are represented as vertices, and spatial contacts as edges. The edges are weighted with the number of contacts based on a distance threshold. This allowed us to apply graph-theoretic methods to visualize and analyze protein complexes.
We extended the implementations of two methods to achieve a computation of Complex Graphs in feasible runtimes. The first method skipped checks for contacts using the information which residues are sequential neighbors. We extended the method to protein complexes and structures containing ligands. The second method introduced spheres encompassing all atoms of a subunit and skipped the check for contacts if the corresponding spheres do not overlap. Both methods combined allowed skipping up to 93 % of the checks for contacts for sample complexes of 40 subunits compared to up to 10 % of the previous implementation. We showed that the runtime of the combined method scaled linearly with the number of atoms compared to a non-linear scaling of the previous implementation We implemented a third method fixing the assignment of an orientation to secondary structure elements. We placed a three-dimensional vector in each secondary structure element and computed the angle between secondary structure elements to assign an orientation. This method sped up the runtime especially for large structures, such as the capsid of human immunodeficiency virus, for which the runtime decreased from 43 to less than 9 hours.
The feasible runtimes allowed us to investigate two data sets of MD trajectories of respiratory complex I of Thermus thermophilus that we received. The data sets differ only by whether ubiquinone is bound to the complex. We implemented a pipeline, PTGLdynamics, to compute the contacts and Complex Graphs for all time steps of the trajectories. We investigated different methods to track changes of contacts during the simulation and created a heat map put onto the three-dimensional structure visualizing the changes. We also created line plots to visualize the changes of contacts over the course of the simulation. Both visualizations helped spotting outstandingly flexible or rigid regions of the structure or time points of the simulation in which major dynamics occur.
We introduced normalizations of the edge weights of Complex Graphs for identi-fying modules and predicting the assembly pathway. The idea is to normalize the number of contacts for the number of residues of a subunit. We defined five different normalizations.
To identify structural and functional modules, we applied the Leiden graph clustering algorithm to the Complex Graphs of respiratory complex I and the respiratory supercomplex. We examined the results for the different normalizations of the weights of the Complex Graphs. The absolute edge weight produced the best result identifying three of four modules that have been defined in the literature for respiratory complex I.
We applied agglomerative hierarchical clustering to the edges of a Complex Graph to create hypotheses of the assembly pathway. The rationale was that subunits with an extensive interface in the final structure assemble early. We tested our method against two existing methods on a data set of 21 proteins with reported assembly pathways. Our prediction outperformed the other methods and ran in feasible runtimes of a few minutes at most.
We also tested our method on respiratory complex I, the respiratory supercomplex and the respiratory megacomplex. We compared the results for the different normalizations with an assembly pathway of respiratory complex I described in the literature. We transformed the assembly pathways to dendrograms and compared the predictions to the reference using the Robinson-Foulds distance and clustering information distance. We analyzed the landscape of the clustering information distance by generating random dendrograms and showed that our result is far better than expected at random. We showed in a detailed analysis that the assembly prediction using one normalization was able to capture key features of the assembly pathway that has been proposed in the literature.
In conclusion, we presented different applications of graph theory to automatically analyze the topology of protein complexes. Our programs run in feasible runtimes even for large complexes. We showed that graph-theoretic modeling of the protein structure can be used to analyze MD simulation data, identify modules of protein complexes and predict assembly pathways.
Baleen whales (Mysticeti) are a clade of highly adapted carnivorous marine mammals that can reach extremely large body sizes and feature characteristic keratinaceous baleen plates used for obligate filter feeding. From a conservation perspective, nearly all baleen whale species were hunted extensively over a roughly 100 years lasting time period that depleted many of the respective whale stocks with so far unknown consequences for e.g. their molecular viability. From an evolutionary perspective, the lack of fossil records together with conflicting molecular patterns resulted in a still unclear and debated phylogeny of modern baleen whales, particularly in rorquals (Balaenopteridae). In this dissertation, I will demonstrate the application of baleen whale genomes to tackle these open questions by using modern approaches of conservation and evolutionary genomics.
Conservation genomic aspects of baleen whales were addressed in two projects, both using whole genome data of either an Icelandic fin whale (Balaenoptera physalus) population or multiple blue whale (Balaenoptera musculus) populations to evaluate the impact of the industrial whaling era on their molecular viability. The results suggest a substantial drop in effective population size of both species but also a lack of manifestation in genotypes of the fin whale population when compared to the blue whale populations. Especially the rare and short runs of homozygosity (ROH), usually indicative for inbreeding, suggest frequent outcrossing in fin whales while all analyzed blue whale populations featured long and frequent ROH. In addition to these analyses, genome data of blue whale populations was further used to evaluate if northern hemisphere blue whales diverged into different subspecies. Population genetic and gene flow analyses showed clearly separated and well isolated populations in accordance with their assumed geographical distance. In contrast, the genome-wide divergence between all blue whale populations was low compared to other cetacean populations and to the next closely related sei whale species. Because this includes the morphologically different and well recognized pygmy blue whale subspecies, a proposal was made to equally categorize the two northern-hemisphere blue whale populations as subspecies.
Evolutionary aspects were addressed in a third project, by constructing the genome of the pygmy right whale (Caperea marginata) and testing its potential in phylogenetics and cancer research. Phylogenomic analyses using fragments of a whole-genome alignment featuring nearly all extant baleen whales, allowed the revision of the complex evolutionary relationships of rorquals by quantifying and characterizing the amounts of conflicts in early diverging branches. These relationships were further used to identify phylogenetically independent pairs of baleen whales with a maximum of diverging body size differences to compare rates of positive selection between their genomes. The results suggest nearly evenly distributed frequencies of alternative topologies which supports the representation of the early divergence of rorquals as a hard polytomy with high amounts of introgression and incomplete lineage sorting. Within the set of available genomic data, three independent pairs of baleen whales with diverging body sizes were found and comparisons of positive selection rates resulted in many potentially body size and cancer related genes. The lack of conserved selection patterns, however, suggest a more convergent evolution of size and cancer resistance like previously discussed in paleontology.
In conclusion, the application of whole genome data using methods of conservation genetics allowed for a comprehensive estimation about the molecular viability of blue and fin whales as well as an assessment of the taxonomic status of northern-hemisphere blue whale populations. The rather different results between blue and fin whales underlines the importance of genomic monitoring of baleen whales because different species show rather different molecular consequences of their potentially varying depletions. Furthermore, as showcased for the northern-hemisphere blue whale, many important isolated populations of baleen whales may still be unknown to conservation management and genome-wide comparisons will most likely contribute to overcome this under-classification problem. The application of whole genome data in evolutionary research allowed the characterization of the complex patterns of molecular conflicts within baleen whales and especially rorquals that will contribute to the still rather unclear understanding of their evolution. The here found molecular support for the idea of convergent evolution of gigantism in whales will further guide the search for molecular patterns responsible for Peto’s paradox.
Die Kraftfähigkeiten werden in ihrer Bedeutung für den Boxsport immer noch unterschätzt. Die vorliegende Arbeit soll dazu beitragen, die Akzeptanz des Krafttrainings zu erhöhen und Berührungsängste abzubauen. Die Arbeit zeigt, dass man sich auch heute noch im Hochleistungsbereich des Boxsports Fehler leistet, die die Effizienz des Trainings negativ beeinflussen können. Viele der Spitzenathleten erreichen gute Leistungen nicht wegen des guten Trainings, sondern trotz des schlechten Trainings. Besonders im Bereich des Krafttrainings bestehen deutliche Defizite. Sogar die weltbeste Nation im Amateurboxen, Kuba, hält zurzeit immer noch die Kraftausdauer für den entscheidenden Faktor im Bereich Kraft. So trainiert man hier auch immer noch mit der Methode des Zirkeltrainings an Stationen mit typischen Kraftausdauerreizen (vgl. OTANO 2006). Mit der dieser Arbeit zugrunde liegenden Studie wurden aktuelle Erkenntnisse im Bereich Kraft aufgegriffen und aufgezeigt, dass man mit Kraftausdauer und Zirkeltraining alleine nicht dem Anforderungsprofil im Boxen gerecht werden kann und das man mit verändertem Krafttraining noch deutlich effektiver sein könnte. Krafttraining sollte gerade mit jungen Boxern durchgeführt werden, um möglichen muskulären Dysbalancen und Überlastungsschäden vorzubeugen (vgl. KITTEL et al. 2008). In dieser Untersuchung mit Spitzenboxern hat sich das Krafttraining außerdem als bedeutende Leistungsreserve im Boxsport dargestellt. Es stellt eine Möglichkeit zur Anhebung der schnellkraftrelevanten neuromuskulären Leistungsfähigkeit dar, die mit sportartspezifischem Training allein nicht erreicht werden kann (vgl. SCHLUMBERGER et al 2002). Alte Vorurteile, z.B. das Krafttraining langsam mache, können mit derartigen Ergebnissen relativiert werden. An ihre Stelle soll das Wissen um die richtige Einbindung von Krafttraining in den Trainingsprozess treten und damit die Leistung der Boxsportler weiter verbessert werden. BUCHWALD schreibt bereits 1984, dass die Zielstellung, Boxschläge mit maximaler Geschwindigkeit und Härte im Ziel zu landen, nur bei entsprechender Ausbildung der dafür notwendigen konditionellen Fähigkeiten (z.B. Explosivkraft, Maximalkraft) realisiert werden kann. Dennoch wird es vornehmlich älteren Trainern schwer fallen, sich beispielsweise an die längeren interseriellen Pausen beim IK-Training zu halten. Aber längere Pausen zeugen eben nicht von Faulheit, sondern vom Wissen um physiologische Wiederherstellungsprozesse. Um internationalen Anschluss zu haben, ist gezieltes hartes Krafttraining notwendig. Diese Notwendigkeit ist von vielen Trainern im Deutschen Box Verband noch nicht erkannt. Neben vielen anderen Faktoren ist dies einer der Gründe, warum die deutschen Boxer bei der Olympiade 2008 keinen einzigen Kampf gewinnen konnten. Bei den Schwimmern und auch in anderen Sportarten werden die gleichen Fehler wie bei den Boxern gemacht. So postuliert SPIKERMANN (1993) funktionelles Krafttraining und bereitet dann die Nationalmannschaftsschwimmer lediglich mit Therabändern über Monate hinweg auf die Kraftbelastungen im Schwimmen vor (Eigenbeobachtungen am OSP Rhein-Neckar). Auch hier zeugen die Olympia-Ergebnisse von der schlechten Arbeit. ALLERBORN postuliert spezifisches Krafttraining und gibt zu Bedenken, dass das Zusatzgewicht nicht zu schwer sein dürfe, da sonst die Bewegungskoordination leide. Er übersieht dabei, dass die spezielle Bewegung mit Zusatzgewichten niemals exakt der Wettkampfbewegung entspricht. Aus diesem Grund sollte sich das Krafttraining vor allem auf allgemeine Kraftübungen reduzieren. Beim Training der einzelnen Einflussfaktoren auf die Wettkampfleistung im Boxen ergibt sich häufig ein Problem: Sie beschreiben immer nur einen Teil eines Kollektivs von Einflüssen. Bei einer ungünstigen Konstellation können manche Einflüsse andere überdecken. Für die Trainingspraxis bedeutet dies, dass wenn sich ein Trainer auf die Verbesserung eines Parameters wie die Kraftfähigkeiten konzentriert, er aber dafür andere wichtige Einflussfaktoren, wie z.B. die taktische Schulung oder die psychologische Betreuung bei einer Vorbereitung vernachlässigt, dann kommt der Kämpfer seinem Trainingsziel trotz verbesserter Kennwerte nicht näher (vgl. PFEIFFER 2001, 290). Auch in der dieser Arbeit zugrunde liegenden Studie konnte nicht das Optimum an Verbesserungen erzielt werden, weil die einzelnen Trainingsinhalte nicht gut aufeinander abgestimmt waren. Allerdings lag die Problematik hier nicht darauf, dass man sich nur auf das Krafttraining konzentrierte und andere Trainingsinhalte vernachlässigte, sondern man überforderte die Sportler vielfach indem man verschiedenste Trainingsinhalte konzeptlos vermischte. So stellte auch SCHLUMBERGER (2000) in zwei Studien fest, dass ausgeprägtere Explosivkraftverbesserungen dadurch verhindert worden sein könnten, dass das neuromuskuläre System durch Trainingsreize außerhalb der Studien zu vielen konkurrierenden (anaerob-ermüdenden) Reizen ausgesetzt gewesen sein könnte (vgl. auch HÄKKINEN 1988). Die von ZATSIORSKY et al. (2008) beschriebene Gefahr, dass Sportler, die mit maximalen Lasten trainieren, leicht ‚ausbrennen‘ können, kann durch diese Studie nicht bestätigt werden. Das Gegenteil war der Fall – Maximalkrafttraining wirkte stark motivierend auf die Probanden und hatte so einen positiven Einfluss auf die gesamte Trainingseinstellung. Lediglich nach Krafttrainingseinheiten mit submaximalen Lasten zu Beginn der Krafttrainingsperiode klagten die Probanden anfänglich über Muskelschmerzen durch die ungewohnte Belastung. Überlegungen, wonach Schnelligkeitsleistungen gegen geringe äußere Widerstände unabhängig sind von der Maximalkraft (ALLERBORN; RÖTHIG / GRÖSSING) konnten mit dieser Studie widerlegt werden. Richtig ist, dass der Einfluss bei leichten Widerständen ab- und bei schweren Widerständen zunimmt (BÜHRLE 1985), allerdings wird er auch bei geringsten Widerständen vorhanden sein. Falsch sind Aussagen von ALLERBORN (2000, 62), wonach Maximalkrafttraining an sich nicht schneller oder schnellkräftiger macht. Es hat sich auch die Aussage von BÜHRLE et al. (1982) bestätigt, wonach Sportler, die über ein hohes koordinatives Niveau verfügen, Zuwächse der Maximalkraft besonders effektiv in Bewegungsschnelligkeit umsetzen können. Es erscheint in der Vorbereitung auf einen Wettkampf sinnvoll, neben dem Training mit submaximalen und maximalen Kontraktionen der in Untersuchungen von WILSON et al. (1993), SCHMIDTBLEICHER / HEMMLING (1994) und SCHLUMBERGER (2000) geforderten weiteren Explosivkraftbetonung mit ballistischen Kraftübungen und Sprüngen im DVZ gerecht zu werden. Die Wahrscheinlichkeit des Transfers der neuromuskulären Anpassungen auf dynamische Schnellkraftsituationen im koordinativen Muster einer bestimmten Zielbewegung könnte so möglicherweise gesteigert werden. Detaillierte Belastungsvorgaben für ein derartiges Training fehlen allerdings häufig (vgl. SCHLUMBERGER (2000). Allerdings kann aus Sicht der neuromuskulären Leistungsbereitschaft ein Training mit maximalen Kontraktionen und reaktives Sprungkrafttraining mit einem Mindestabstand von drei Stunden am gleichen Tag durchgeführt werden. Nach einer typischen Hypertrophieeinheit sollten nach SCHMIDTBLEICHER / FRICK (1998) mindestens 72 Stunden bis zum Sprungkraftraining liegen.
Glioblastoma multiforme accounts for more than 80% of all malignant gliomas in adults and a minor fraction of new annual cases occurs in children. In the last decades, research shed light onto the molecular patterns underlying human malignancies which resulted in a better understanding of the disease and finally an improved long term survival for cancer patients. However, malignancies of the central nervous system and especially glioblastomas are still related to poor outcomes with median survivals of less than 6 months despite extensive surgery, chemotherapy and radiation. Hence, a better understanding of the molecular mechanism driving and sustaining cancerous mutations in glioblastomas is crucial for the development of targeted therapies. Apoptosis, a form of programmed cell death, is an important feature of eukaryotic cells and crucial for the maintenance of multicellular homeostasis. Because apoptosis is a highly complex and tightly regulated signaling pathway, resisting apoptotic stimuli and avoiding cell death is a hallmark of the cancerous transformation of cells. Hence, targeting molecular structures to reestablish apoptotic signaling in tumor cells is a promising approach for the treatment of malignancies. Smac mimetics are a group of small molecular protein inhibitors that structurally derive from an intracellular protein termed Smac and selectively block Inhibitor of apoptosis (IAP) proteins, which are often aberrantly expressed in cancer. Several studies confirmed the antitumoral effects of Smac mimetics in different human malignancies, including glioblastoma, and give rationales for the development of potent Smac mimetics and Smac mimetic-based combination protocols. This study investigates the antitumoral activity of the bivalent Smac mimetic BV6 in combination with Interferon α. Latter is a well characterized cytokine with an essential role in immunity, cell differentiation and apoptosis. This study further aims to address the molecular mechanisms underlying the antitumoral activity of the combination treatment by using well established molecular cell death assays, flow cytometry, western blot analysis, genetic approaches and selective pharmacological inhibition. Since different Smac mimetics and Smac mimetic-based combination therapies are currently under clinical evaluations, findings of this study may have broad implications for the application of Smac mimetics as clinical cancer therapeutics.
Das Prinzip der endovaskulären Therapie von Aneurysmen mit Platinspiralen hat sich seit seiner Einführung durch Guglielmi 1991 immer mehr als alternatives Verfahren zum neurochirurgischen Clipping etabliert. Insbesondere bei Aneurysmen, die durch den neurochirurgischen Zugang nur schwer zu erreichen sind, hat sich diese Therapieoption bewährt. Neben der Lage spielen auch Größe und Form bei der Entscheidung für das Coiling eine wichtige Rolle. Es ist technisch anspruchsvoll, breitbasige oder besonders kleine Aneurysmen durch dieses Verfahren auszuschalten. Angesichts der aktuellen Datenlage ist es nicht immer möglich, eine zweifelsfreie Entscheidung zu treffen, ob und wie betroffene Patienten bestmöglich behandelt werden sollten. Insbesondere Fragen zur Behandlung und zu Komplikationen bei Aneurysmen ≤ 3 mm sind nicht hinreichend beantwortet, da diese nur in wenigen Studien Gegenstand der Analyse sind. Ziel der vorliegenden Arbeit war es, klinische und bildgebende Ergebnisse von Patienten, die im Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität Frankfurt am Main durch eine endovaskuläre Intervention behandelt wurden, retrospektiv zu analysieren. Insbesondere wurde ein Schwerpunkt auf die Untersuchung der Komplikationsraten und der Aneurysmarupturen gelegt. Dies dient einer erweiterten Einschätzung von Risiko und Nutzen dieser Therapieoption, um eine bestmögliche Beratung und Behandlung der betroffenen Patienten zu gewährleisten.
In der vorliegenden Arbeit wurden 637 endovaskuläre Interventionen betrachtet, die am Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität zwischen Februar 1999 und März 2011 durchgeführt wurden. In diesem Untersuchungszeitraum von 12 Jahren konnten 47 Patienten mit einem Aneurysma ≤ 3 mm in die Studie eingeschlossen werden. Es erfolgte eine retrospektive Datenerhebung mit Hilfe von Krankenakten, radiologischen Befunden und Angiographie-Dokumentationsprotokollen. Die Zusammensetzung des Patientenkollektivs war vergleichbar mit der der bisherigen Literatur. Das Durchschnittsalter des Patientenkollektivs betrug 55 Jahre. 85 % der Patienten waren Frauen. Bei der Häufigkeit des Auftretens an bestimmten Gefäßlokalisationen konnte ein geringer Unterschied festgestellt werden. Während bei ähnlichen Studien der Großteil der Aneurysmen an der ACI gefunden wurde, war in der vorliegenden Arbeit die AcomA am häufigsten betroffen, gefolgt von der ACI. In Bezug auf die Fehlschlagraten sind die Ergebnisse heterogen. In der vorliegenden Studie war es bei 17 % der behandelten Patienten nicht möglich, das Einbringen einer Platinspirale erfolgreich abzuschließen. Ein kompletter Aneurysmaverschluss erfolgte bei 55 % der Patienten. Bei 28 % der Fälle blieb nach der Intervention ein minimaler Halsrest bestehen. Die allgemeine Komplikationsrate betrug 12,8 %. Zu einer durch die Intervention ausgelösten Ruptur kam es in zwei Fällen (4,3 %), wobei dieser Anteil im mittleren Bereich der in der aktuellen Literatur beschriebenen Rupturraten von 0 % bis 11,7 % liegt. Für die Beurteilung des Therapieerfolgs spielt die Verfügbarkeit von Nachkontrollen eine wichtige Rolle. In der vorliegenden Arbeit war es möglich, in 87 % der Fälle Verlaufskontrollen durchzuführen, was Ergebnissen der Literatur entspricht. Die Wiederbehandlungsrate war mit 4,3 % vergleichsweise niedrig. Die Bildung eines Rezidivaneurysmas konnte in einem Fall beobachtet werden. 59 % der Patienten wiesen präoperativ einen Hunt und Hess Grad von 0 bis 2 auf, während es in anderen Arbeiten bis zu 87 % der Patienten waren. Grad 3 lag bei 15 % der Patienten vor, schwer betroffen waren 15 % mit einem Hunt und Hess Grad von 4 und 11 % mit einem von Grad 5. 55,3 % der in der vorliegenden Studie betrachteten Patienten konnten am Ende des Beobachtungszeitraums nach Einschätzung mittels mRS ihren Alltag ohne fremde Hilfe bewältigen (Stadien 0, 1 und 2). 34,0 % der Patienten benötigten fremde Hilfe und 10,9 % verstarben an den Folgen der SAB. Im Gegensatz dazu konnte in anderen Arbeiten ein mRS-Grad von 0-2 in mehr als 75 % gefunden werden. Dies bestärkt die Annahmen, dass ein primär niedriger Hunt und Hess Grad mit einem besseren und ein hoher Hunt und Hess Grad mit einem schlechteren klinischen Verlauf assoziiert sein könnte.
Durch die geringe Größe der Stichprobe und die retrospektive Datenanalyse der vorliegenden Arbeit ist es nicht möglich, zuverlässige allgemein gültige Behandlungsempfehlungen abzuleiten. Hier wurde das eigene Patientenkollektiv detailliert analysiert und die Ergebnisse wurden mit ähnlichen Publikationen verglichen. Weitere prospektiv geplante Studien sind sinnvoll.
Aus der zusammenfassenden Betrachtung der Ergebnisse lässt sich schließen, dass mit den momentan verfügbaren Mitteln bei ausreichender Erfahrung des behandelnden Neuroradiologen eine relativ sichere endovaskuläre Behandlung von sehr kleinen Aneurysmen möglich ist. Neben der Erfahrenheit des interventionellen Neuroradiologen kann die Weiterentwicklung der eingesetzten Materialien wie Coils, Stents, Ballons und Mikrokatheter zur Minimierung des Komplikationsrisikos beitragen.
Verfahren zur elektrochemischen Messung von Stickstoffmonoxid und S-Nitrosothiolen in Flüssigkeiten
(2001)
Stickstoffmonoxid (NO) ist in den letzten Jahren als Kreislaufregulator und biologischer Botenstoff in den Mittelpunkt des Interesses gerückt. Inzwischen gilt als sicher, dass NO an vielen Schlüsselstellen, nicht nur in der Kreislaufregulation, aber dort besonders, eine prominente Rolle spielt. Das Endothel als disseminiertes Organ betrachtet ist als Produktionsort des zu Beginn der Forschungen phänomenologisch ,,endothelium derived relaxing factor" genannten NO scheinbar von größerer Bedeutung, als zunächst angenommen. Anstelle einer einfachen Gefäßauskleidung ist das Endothel Regulator vieler wichtiger Prozesse. Diskutierte Wirkungen reichen vom septischen Kreislaufversagen bei überschießender NO-Produktion, bis zur Atherosklerose bei gestörter Endothelfunktion mit verminderter NO-Produktion. Es gibt hier ,,gute" und ,,böse" Wirkungen, so das hier von einer Janusköpfigkeit, also Doppelgesichtigkeit, gesprochen wird. NO wird hier jeweils eine Schlüsselrolle als Botenstoff und Effektor zugewiesen. Bisher gibt es aber keine praktikablen Verfahren, um die effektive NO-Produktion zeitnah und in vivo zu quantifizieren. In der vorliegenden Arbeit ist im Anschluß an vorbestehenden Überlegungen und Verfahren eine Methode entwickelt worden, mit deren Hilfe Rückschlüsse auf die jeweilige Produktion und den Plasmaspiegel von NO gezogen werden können. Stickstoffmonoxid hat eine Halbwertszeit von wenigen Sekunden im Plasma. Ein wichtiges Stoffwechselprodukt aus dem Abbau des freien NO sind S-Nitrosothiole. Freies NO geht eine Verbindung mit Thiolgruppen von Plasmaproteinen ein. Diese gebundene Form von NO ist relativ stabil und gilt als Plasmaspeicher von NO. Es kann aus dieser Verbindung wieder herausgelöst werden und liegt dann wieder als freies NO vor. In der vorliegenden Arbeit werden die Grundlagen geschaffen für ein Verfahren, mit dem der Plasmaspiegel von S-Nitrosothiolen bestimmt, und Rückschlüsse auf die NO Produktion gezogen werden können. Die Methode basiert auf dem Umstand, dass man mittels Metallionen, wie beispielsweise Kupferionen, S-Nitrosothiole zur Dekomposition bringen kann. Das freigesetzte NO wurde dann mittels einer amperometrischen NO-selektiven Sonde gemessen. Die zu erwartenden Konzentrationen sind sehr gering und einer verlässlichen Messung nur bedingt zugänglich, da die Abspaltung von NO aus hochmolekularen S-Nitrosothiolen, wie dem S-Nitrosoalbumim, nur sehr langsam abläuft. Günstiger ist die Zerfallskinetik von niedermolekularen S-Nitrosoverbindungen. Daher wird der Zwischenschritt der Transnitrosylierung, der Übertragung der Nitrosylgruppe von Albumin auf einen niedermolekularen Baustein mit einer Nitrosogruppe, eingeschaltet. Die Konzentrationen des zu messenden NO bleiben aber sehr gering, so dass die Minimierung der Störeinflüsse der Methodik einen großen Teil der Arbeit einnimmt. Es konnte in dieser Arbeit nachgewiesen werden, dass S-Nitrosoalbumin mittels des beschriebenen Verfahrens quantitativ bestimmbar ist. Eine Übertragung des Verfahrens auf Messungen im Blutplasma wird der Gegenstand weiterer Forschungen sein.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).
In der Abteilung „Medizinische Biotechnologie“ des Paul-Ehrlich-Instituts konnte gezeigt werden, dass ein SIVsmmPBj-abgeleiteter Vektor Vorteile gegenüber HIV-1-abgeleiteten Vektoren aufweist, da auch in der G0-Phase des Zellzyklus arretierte Zelllinien und Fibroblasten sowie primäre humane Monozyten transduziert werden können. Im ersten Teil der hier vorliegenden Arbeit wurden die besonderen Transduktionsfähigkeiten diese SIVsmmPBj Vektors eingehend untersucht. Zunächst wurden die transduzierbaren Monozyten morphologisch und biochemisch genauer charakterisiert; insbesondere wurde gezeigt, dass sich diese Zellen tatsächlich in der G0-Phase des Zellzyklus befinden und auch nach der Transduktion die Fähigkeit aufweisen, sowohl in Makrophagen als auch in Dendritischen Zellen auszudifferenzieren. Bei dem Versuch andere primäre humane Blutzellen zu transduzieren wurde gezeigt, dass SIVsmmPBj Vektoren für die Transduktion unstimulierter CD4+ T-Zellen nicht geeignet sind. Zum besseren Verständnis der zugrunde liegenden Mechanismen die zur Transduktion arretierter Zellen und Monozyten durch SIVsmmPBj-abgeleitete Vektoren führen, wurde der Einfluss der akzessorischen viralen Proteine untersucht. Dazu wurde ein PBj-Knockout- Vektor, bei dem die Expression aller akzessorischen Gene (vif, vpx, vpr und nef) inhibiert war, generiert und zur Transduktion von arretierten Zellen und Monozyten eingesetzt. Keines der akzessorischen Proteine war für die Transduktion der in G0 arretierten Zellen notwendig. Für die Transduktion von Monozyten erwies sich das virale Protein Vpx jedoch als essentiell, da der Knockout-Vektor zur Transduktion von Monozyten nur nach Supplementierung mit diesem Protein in der Lage war. Die Supplementierung von HIV-1 Vektoren mit Vpx des SIVsmmPBj ermöglichte keine Transduktion von Monozyten, was darauf hindeutet, dass weitere Proteine von SIVsmmPBj oder aber auch die Fähigkeit der prinzipiellen Transduktion von Zellen der G0-Phase eine Rolle spielen. Im letzten Teil dieser Arbeit wurde ein auf SIVsmmPBj basierendes Dreiplasmid-Vektorsystem entwickelt. Für das Verpackungskonstrukt wurde das Verpackungssignal charakterisiert. Dabei konnte gezeigt werden, dass der Bereich zwischen dem Promotor und dem Spleißdonor gelegene Bereich für eine effiziente Partikelbildung nötig ist und die Deletion der Region zwischen Spleißdonor und gag-Start-ATG zur Inaktivierung des Verpackungssignals ausreicht. Die aus dem Dreiplasmid-System generierten Vektoren erreichten Titer von bis zu 5 x 105 i.E./ml und waren nach Supplementierung mit Vpx dazu in der Lage, primäre humane Monozyten zu transduzieren. Der hier entwickelte, auf SIVsmmPBj basierende Vektor eröffnet neue Möglichkeiten in der Gentherapie. So sind nun auch Monozyten als wichtige Zielzellen der Tumortherapie einem Gentransfer durch lentivirale Vektoren zugänglich.
The dissertation deals with the general problem of how the brain can establish correspondences between neural patterns stored in different cortical areas. Although an important capability in many cognitive areas like language understanding, abstract reasoning, or motor control, this thesis concentrates on invariant object recognition as application of correspondence finding. One part of the work presents a correspondence-based, neurally plausible system for face recognition. Other parts address the question of visual information routing over several stages by proposing optimal architectures for such routing ('switchyards') and deriving ontogenetic mechanisms for the growth of switchyards. Finally, the idea of multi-stage routing is united with the object recognition system introduced before, making suggestions of how the so far distinct feature-based and correspondence-based approaches to object recognition could be reconciled.
Both practitioners and academics agree about the importance of price and its direct influenceon consumers’ purchase decision as well as the company profit. In the reality, we rarely see a
single price for a given product. One visit in a store already shows that consumers face many various prices. This strategy of differential prices allows to increase profit but also improves consumers’ situation and increases welfare. A wide range of various price differentiation mechanisms exists on the market which makes price differentiation a very interesting phenomenon. Additionally, market developments constantly allow for new price differentiation applications. In this work, I research a fascinating topic of price differentiation, its various forms
and new application possibilities in changing market areas.
Light scalar mesons can be understood as dynamically generated resonances. They arise as 'companion poles' in the propagators of quark-antiquark seed states when accounting for hadronic loop contributions to the self-energies of the latter. Such a mechanism may explain the overpopulation in the scalar sector - there exist more resonances with total spin J=0 than can be described within a quark model.
Along this line, we study an effective Lagrangian approach where the isovector state a_{0}(1450) couples via both non-derivative and derivative interactions to pseudoscalar mesons. It is demonstrated that the propagator has two poles: a companion pole corresponding to a_{0}(980) and a pole of the seed state a_{0}(1450). The positions of these poles are in quantitative agreement with experimental data. Besides that, we investigate similar models for the isodoublet state K_{0}^{*}(1430) by performing a fit to pion-kaon phase shift data in the I=1/2, J=0 channel. We show that, in order to fit the data accurately, a companion pole for the K_{0}^{*}(800), that is, the light kappa resonance, is required. A large-N_{c} study confirms that both resonances below 1 GeV are predominantly four-quark states, while the heavy states are quarkonia.
Prädiktoren der Remission bei Patienten mit Morbus Basedow : eine Verlaufsbeobachtung über 30 Monate
(2008)
Eine Verringerung der Schilddrüsenantikörper, besonders des TSH- Rezeptor- Antikörpers, ist ein Marker für die Voraussagbarkeit einer Remission des Morbus Basedow. Auffallend ist, dass es nicht detektierbare TSH- Level in unbehandelten, sich in Remission befindlichen Patienten gibt. Die klinische Verwertbarkeit dieses Befundes ist jedoch noch nicht hinreichend untersucht. 88 Patienten mit Morbus Basedow wurden im Mittel über einen Zeitraum von dreizig Monaten beobachtet. Zu sieben verschieden Zeitpunkten wurden TSH, fT3, fT4 und die thyroidalen Antikörper gemessen. Drei dieser Zeitpunkte wurden genauer untersucht, eingeteilt in einen Anfangszeitpunkt, einen mittleren Zeitpunkt und einen Endzeitpunkt. Im zuletzt gemessenen Zeitpunkt waren 77 % der Patienten in Remission. In der Gruppe die wir nach thyreostatischer Therapie beobachteten, waren 86 % der Patienten in Remission, in der Gruppe mit L-Thyroxin behandelten Patienten wiesen 80 % der Patienten eine Remission auf. Von den Patienten, die wir unter laufender medikamentöser Therapie untersuchten, hatten 62 % eine Remission. Zu diesem Zeitpunkt bekamen die Patienten, die sich in der Gruppe nach medikamentöser Therapie befanden, im Schnitt für 12 – 18 Monate thyreostatische Medikamente. Patienten, die unter thyreostatischer Medaktion standen, erhielten im Schnitt für 12 – 24 Monate Thyrostatika. Patienten, die nun mit L-T4 behandelt werden, erhielten im Schnitt für 12 - 24 Monate vorab medikamentöse Therapie. Durchschnittliche TSH Werte bei Patienten ohne Therapie sind 1.211 mU/ml (±0.900), bei Patienten, die L-T4 erhielten, 2,255 mU/ml (±3,404) und in Patienten mit antithyroiden Medikamenten 1,695 mU/ml (±2,575). TSH- Level in der Gruppe der unbehandelten Patienten waren signifikant niedriger (p<0.05) als in den Patientengruppen, die Levothyroxin oder medikamentöse Therapie erhielten. TRAK waren signifikant niedriger in der Gruppe der Patienten nach thyreostatischer Therapie (durchschnittlich 1.64±1.55 U/l) als in der mit L-T4 behandelten Gruppe (durchschnittlich 3.578 ±6.428 U/l) oder in der antithyroidalen Gruppe (durchschnittlich 2.758 ±2.741U/l). TRAK war bei allen Patienten, die in Remission blieben, deutlich verringert. Die Patienten, die ein Rezidiv hatten, wiesen im Schnitt weiterhin einen deutlich erhöhten TRAK – Level auf. Anders als in anderen Studien observierten wir nur einen weiblichen Patienten mit undetektierbaren TSH- Level in klinischer und biochemischer Remission. Diese Patientin hatte durchgehend nicht detektierbare TRAK- Spiegel. Der sinkende TRAK während der Behandlung und auch im weiteren Verlauf scheint ein glaubwürdiger Vorhersagewert für eine Remission des Morbus Basedow zu sein. Bei unseren untersuchten Patienten in Remission stellten wir keine bedeutsame Zahl mit nicht nachweisbarem TSH- Level fest. TSH stellt keinen prädiktiven Wert für die Prognose dar. Die Höhe des TRAK – Wertes ist dagegen prognostisch verwertbar.
Measuring information processing in neural data: The application of transfer entropy in neuroscience
(2017)
It is a common notion in neuroscience research that the brain and neural systems in general "perform computations" to generate their complex, everyday behavior (Schnitzer, 2002). Understanding these computations is thus an important step in understanding neural systems as a whole (Carandini, 2012;Clark, 2013; Schnitzer, 2002; de-Wit, 2016). It has been proposed that one way to analyze these computations is by quantifying basic information processing operations necessary for computation, namely the transfer, storage, and modification of information (Langton, 1990; Mitchell, 2011; Mitchell, 1993;Wibral, 2015). A framework for the analysis of these operations has been emerging (Lizier2010thesis), using measures from information theory (Shannon, 1948) to analyze computation in arbitrary information processing systems (e.g., Lizier, 2012b). Of these measures transfer entropy (TE) (Schreiber2000), a measure of information transfer, is the most widely used in neuroscience today (e.g., Vicente, 2011; Wibral, 2011; Gourevitch, 2007; Vakorin, 2010; Besserve, 2010; Lizier, 2011; Richter, 2016; Huang, 2015; Rivolta, 2015; Roux, 2013). Yet, despite this popularity, open theoretical and practical problems in the application of TE remain (e.g., Vicente, 2011; Wibral, 2014a). The present work addresses some of the most prominent of these methodological problems in three studies.
The first study presents an efficient implementation for the estimation of TE from non-stationary data. The statistical properties of non-stationary data are not invariant over time such that TE can not be easily estimated from these observations. Instead, necessary observations can be collected over an ensemble of data, i.e., observations of physical or temporal replications of the same process (Gomez-Herrero, 2010). The latter approach is computationally more demanding than the estimation from observations over time. The present study demonstrates how to handles this increased computational demand by presenting a highly-parallel implementation of the estimator using graphics processing units.
The second study addresses the problem of estimating bivariate TE from multivariate data. Neuroscience research often investigates interactions between more than two (sub-)systems. It is common to analyze these interactions by iteratively estimating TE between pairs of variables, because a fully multivariate approach to TE-estimation is computationally intractable (Lizier, 2012a; Das, 2008; Welch, 1982). Yet, the estimation of bivariate TE from multivariate data may yield spurious, false-positive results (Lizier, 2012a;Kaminski, 2001; Blinowska, 2004). The present study proposes that such spurious links can be identified by characteristic coupling-motifs and the timings of their information transfer delays in networks of bivariate TE-estimates. The study presents a graph-algorithm that detects these coupling motifs and marks potentially spurious links. The algorithm thus partially corrects for spurious results due to multivariate effects and yields a more conservative approximation of the true network of multivariate information transfer.
The third study investigates the TE between pre-frontal and primary visual cortical areas of two ferrets under different levels of anesthesia. Additionally, the study investigates local information processing in source and target of the TE by estimating information storage (Lizier, 2012) and signal entropy. Results of this study indicate an alternative explanation for the commonly observed reduction in TE under anesthesia (Imas, 2005; Ku, 2011; Lee, 2013; Jordan, 2013; Untergehrer, 2014), which is often explained by changes in the underlying coupling between areas. Instead, the present study proposes that reduced TE may be due to a reduction in information generation measured by signal entropy in the source of TE. The study thus demonstrates how interpreting changes in TE as evidence for changes in causal coupling may lead to erroneous conclusions. The study further discusses current bast-practice in the estimation of TE, namely the use of state-of-the-art estimators over approximative methods and the use of optimization procedures for estimation parameters over the use of ad-hoc choices. It is demonstrated how not following this best-practice may lead to over- or under-estimation of TE or failure to detect TE altogether.
In summary, the present work proposes an implementation for the efficient estimation of TE from non-stationary data, it presents a correction for spurious effects in bivariate TE-estimation from multivariate data, and it presents current best-practice in the estimation and interpretation of TE. Taken together, the work presents solutions to some of the most pressing problems of the estimation of TE in neuroscience, improving the robust estimation of TE as a measure of information transfer in neural systems.
Ein erblich bedingter Funktionsverlust der DNA Mismatch Reparatur (MMR) Proteine hMSH2 und hMLH1 führt zu genetischer Instabilität und frühzeitiger Ausbildung von Krebserkrankungen, insbesonders des Kolons und des Endometriums. Diese Erkrankung wird nach ihrem Erstbeschreiber als Lynch Syndrom oder im Falle eines kolorektalen Karzinoms auch als erbliches nichtpolypöses kolorektales Karzinom (hereditary non polyposis colorectal cancer, HNPCC) bezeichnet. Neben der DNA Reparatur sind MMR Proteine auch an weiteren regulatorischen Prozessen wie genetischer Rekombination, Antikörperbildung sowie Zellzyklus Regulation und Apoptose beteiligt. Aus onkologischer Sicht ist besonders der letzte Punkt von Interesse, da man davon ausgeht, dass MMR Proteine bei exzessiven DNA-Schäden den Zellzyklus anhalten und entweder die DNA reparieren oder die Apoptose einleiten. Dies ist von klinischer Bedeutung, da viele Chemotherapeutika künstliche DNA-Läsionen hervorrufen, die in MMR defizienten Zellen weder zu einem Zellzyklus Stop noch zur Apoptose führen, so dass die Wirksamkeit bestimmter Substanzen vermindert ist. Aus diesem Grund wurde im Rahmen der vorgelegten Dissertation ein Screening zur Identifikation von Interaktionspartnern von hMLH1 durchgeführt. hMLH1 ist hauptsächlich im Zellkern lokalisiert, über Interaktionspartner im Zytoplasma ist bisher wenig bekannt. Im Rahmen dieser Arbeit wurde ein neues bakterielles Zweihybrid-System etabliert. In diesem System besitzen die Wirtszellen keinen Zellkern, so dass die detektierten Interaktionen unabhängig von der intrazellulären Lokalisation stattfinden. Die Klone einer cDNA-Datenbank wurden mit hMLH1 in Bakterienzellen koexprimiert und die Interaktionen durch positives Zellwachstum auf Minimalnährböden angezeigt. Die positiven Klone wurden anschließend sequenziert und die Sequenz mit Hilfe der BLAST-Funktion mit der PubMed Online-Datenbank abgeglichen. Insgesamt wurden 108 bisher unbekannte Interaktionspartner von hMLH1 detektiert. Von diesen konnten zahlreiche Proteine den bekannten Funktionen der MMR zugeordnet werden. Von besonderem Interesse sind einige Interaktionspartner aus den Bereichen Zellzyklus Regulation (ANXA6, LPP2, NDRG1, PTP4A2/RH, RAPGEFL1, SPTLC2 und ARAF1), Apoptose (CTSB, CAPN5, DDX47, DES und Atmungskettenproteine) und ribosomale Proteine (EIF2A, EEF2, RPS2, RPS5 und RPS16). Weitere Untersuchungen müssen zeigen, welche dieser Interaktionspartner sich möglicherweise als prognostische bzw. prädiktive Biomarker nutzen lassen. Weiterhin könnten sich durch fundierte Kenntnis der Interaktion von MMR und Zellzyklus Regulation bzw. Apoptose neue Ansatzpunkte bei der Entwicklung zukünftiger therapeutischer Substanzen ergeben.
Die vorliegende Arbeit basiert auf einer Kombination von IR-Messungen und Spektrenberechnungen mittels Dichtefunktionaltheorie und konnte tiefere Einblicke in die von vielfältigen Überlagerungen geprägten Spektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans geben. Absorptionsmessungen zu allen 20 natürlich vorkommenden a-Aminosäuren wurden an wässrigen Lösungen im Spektralbereich von 1800 bis 500 cm-1 durchgeführt und stellten eine wichtige Grundlage zur Identifikation von Signalen der Aminosäuren im Proteinspektrum dar. Durch die Berechnung der molaren Absorptionskoeffizienten aus den Aminosäurespektren konnten Beiträge einzelner Aminosäuren zum Proteinspektrum besser eingeordnet bzw. abgeschätzt werden. Eine detaillierte Untersuchung für die wichtige Aminosäure Histidin, auch mittels zitierten Rechnungen an Modellsubstanzen, diente zur tendenziellen Zuordnung einige dieser Banden in zeitabhängig gemessenen Proteinspektren. Um eine qualitativ hochwertige Aufnahme der elektrochemisch induzierten Redox- Differenzspektren zu gewährleisten, wurde eine Potentiostaten-Ansteuerung konzipiert und programmiert. Die damit automatisiert durchgeführten Messungen ergaben reproduzierbare Differenzspektren für die Ubichinone mit und ohne Isoprenseitenkette (UQ2, UQ0) als auch für das Protein, den Cytochrom bc1-Komplex, bis 880 cm-1. Dies bedeutete eine Erweiterung des Spektralbereichs im Vergleich zu vorigen Arbeiten und damit die Möglichkeit, signifikante Moden der Ubichinole zu detektieren. Zur Untersuchung der komplexen IR-Spektren der Ubichinole wurden ab initio - und Dichtefunktionaltheorie-Rechnungen durchgeführt. Für diese biologisch essentiellen Moleküle waren bislang keine Struktur- oder Normalmodenberechnungen bekannt und wurden in der vorliegenden Studie erstmals erarbeitet. Bei der Analyse der möglichen Geometrien des UQ0H2-Moleküls mittels ab initio - Studien resultierte eine energetisch günstigste Struktur, bei der beide Methoxygruppen aus der Ringebene in verschiedene Raumhälften (vor und hinter dem Ring) wiesen. Dies ergab sich sowohl für Chinole mit als auch ohne Isoprenseitenkette (gezeigt mittels ab initio oder DFT). Diese Anordnung hat zur Folge, dass es als unwahrscheinlich eingestuft werden kann, dass die Ubichinole in übereinander gestapelter Form vorliegen. Die für die Chinole charakteristischen Hydroxygruppen (COH) orientierten sich beim Ubichinol ohne Seitenkette zu den jeweils benachbarten Methoxygruppen hin. Beim UQ2H2 zeigte die C1-OH Gruppe in Richtung der Isoprenseitenkette. Die Strukturen der oxidierten Ubichinone wiesen den aus der Literatur bekannten Mesomerie-Resonanz-Effekt an den Bindungen C4=O, C2=C3 und C-O der Methoxygruppe an C2 auf. Dieser Effekt wurde an diesen Gruppen auch für das Ubichinon mit Isoprenseitenkette gezeigt, zu dem bislang kaum Literaturdaten aus Rechnungen vorlagen. Für biologisch relevante Zwischenstufen im Redox-/Protonierungsprozess der Chinone (Ubichinone ohne Seitenkette) wurden die Strukturen berechnet. Hier erwies sich eine erste Protonierung an der C1O-Gruppe als energetisch günstiger. Zu diesen Zwischenstufen, die teils radikaler oder anionischer Natur sind, wurden die Spektren im Einklang mit bisherigen DFT-Analysen, die meist zu einfacheren Molekülen vorlagen, erstmals berechnet. Da die Spektrenberechnungen von den Strukturen in vacuo ausgingen, waren zusätzliche Modellstudien an Chinonen hilfreich, bei denen ein Wassermolekül benachbart war. Damit konnten die Auswirkungen entsprechender H-Brücken (z.B. zwischen Protein und Chinon- Molekül) anhand der berechneten Spektren der Modelle eingehender beleuchtet werden und ergaben zudem wichtige Hinweise auf mögliche Anordnungen von Wasserstoffbrücken zum (methoxy-substituierten) Chinol. Die Messungen der Ubichinole in wässriger Lösung und gebunden im Protein ergaben charakteristische Banden zwischen 1120 und 1050 cm-1, die mit den Spektrenberechnungen zugeordnet wurden: Diese Banden beinhalteten die für die Bindung der Ubichinole im Protein aussagekräftigen Signale der beiden C-O Gruppen. Damit wurde ein Grundstein gelegt für Interpretationen der Spektren hinsichtlich der Bindungen der Ubichinole an die Proteinumgebung. Für das oxidierte Ubichinon mit Isoprenseitenkette erwiesen sich die Intensitäten der vier str. C=O / C=C Moden im Vergleich zu UQ0 als verändert. Damit lag ein Beitrag einer dieser Moden zu einer Bande im Proteinspektrum nahe. Hier zeigte sich, dass eine Normalmodenanalyse von hoher Qualität, wie die vorliegende mittels Dichtefunktionaltheorie, entscheidende Aussagen über Banden liefern kann, die bei Messungen an Ubichinon-Lösungen nicht unterscheidbar sind, jedoch beim Molekül im Protein sichtbar sein können. Zu den berechneten Spektren der Ubichinole und der oxidierten Formen wurden jeweils Bandenverschiebungen ermittelt, die mit Isotopenmarkierungen einher gingen und die im Einklang mit den gemessenen Verschiebungen im Falle der 13C1- bzw. 13C4-markierten Ubichinone standen. Die Differenzspektren des Cytochrom bc1-Komplexes aus Paracoccus denitrificans zeigten aufgrund des hohen Chinongehalts ausgeprägte Banden der Ubichinole inklusive der erwähnten charakteristischen Moden. Da es in deren Bereich in den Proteinspektren zu Überlagerungen mit Häm- und Aminosäurensignalen kommt, sind weiterführende, experimentelle Studien für ein noch detailliertes Verständnis erforderlich. Die in den Spektren vorhandenen, zahlreichen weiteren Beiträge der verschiedenen Gruppen im Protein wurden anhand von Literaturdaten diskutiert. Dies betraf insbesondere die Schwingungsmoden der Häme und die Amid-Banden, die Signale des Polypeptidrückgrates des Proteins. Für die Spektrendiskussion bzgl. den Aminosäuren im Protein wurden die Ergebnisse aus Kap. 4.1 hinzugezogen. Mit zeitabhängigen IR-Messsungen (alle 30 Sekunden) wurde versucht, Erkenntnisse über weitere Beiträge oder zeitliche Entwicklungen im Proteinspektrum zu gewinnen. Da die Chinone verzögert (zum Anlegen des entsprechenden Potentials) reagierten, waren in Abhängigkeit der Reaktionsrichtung auch Signale anderer Gruppen im Protein messbar. So konnten mehrere Moden der Häme im bc1-Komplex (tendenziell) nachvollzogen werden. Aus diesen Messreihen ergaben sich wichtige Hinweise auf Signale der Histidine am Eisen-Schwefel-Zentrum des Enzyms. Diese Aminosäuren stehen direkt mit den Ubichinolen in der Qo-Bindestelle in Wechselwirkung.
This dissertation introduces in chapter 1 a new comparative approach to model-based research and policy analysis by constructing an archive of business cycle models. It includes many well-known models used in academia and at policy institutions. A computational platform is created that allows straightforward comparisons of models’ implications for monetary and fiscal stabilization policies. Chapter 2 applies business cycle models to forecasting. Several New Keynesian models are estimated on historical U.S. data vintages and forecasts are computed for the five most recent recessions. The extent of forecast heterogeneity for models and professional forecasts is analysed. Chapter 3 extends the forecasting analysis to a long sample and to the evaluation of density forecasts. Weighted forecasts are computed using a variety of weighting schemes. The accuracy of forecasts is evaluated and compared to professional forecasts and forecasts from nonstructural time series methods. Chapter 4 adds a new feature to existing business cycle models. Specifically, a medium-scale New Keynesian model is constructed that allows for strategic complementarities in price-setting. The role of trade integration for monetary policy transmission is explored. A new dimension of the exchange rate channel is highlighted by which monetary policy directly impacts domestic inflation. Chapter 5 tests whether simple symmetric monetary policy rules used in most business cycle models are a sufficient description of reality. I use quantile regressions to estimate policy parameters and find asymmetric reactions to inflation, the output gap and past interest rates.
Water is scarce in semi-arid and arid regions. Using alternative water sources (i.e. non-conventional water sources), such as municipal reuse water and harvested rain, contributes to using existing water resources more efficiently and productively. The aim of this study is to evaluate the two alternative water sources reuse water and harvested rain for the irrigation of small-holder agriculture from a system perspective. This helps decision and policy makers to have proper information about which system and technology to adopt under local conditions. For this, the evaluation included ecologic, societal, economic, institutional and political as well as technical aspects. For the evaluation, the study area in central-northern Namibia was chosen in the frame of the research and development project CuveWaters. The main methods used include a mathematical material flow analysis, the computation and modelling of crop requirements, a multi-criteria decision analysis using the Analytical Hierarchy Process (AHP) method and a financial cost-benefit analysis. From a systemic perspective, the proposed novel systems were compared to the exciting conventional infrastructure. The results showed that both water reuse and rainwater harvesting systems for the irrigation of small-holder horticulture offer numerous technological, ecologic, economic, societal, institutional and political benefits. Rainwater harvesting based gardens have a positive benefit-cost ratio under favorable conditions. Government programs could fund the infrastructure investment costs, while the micro-entrepreneur can assume a micro-credit to finance operation and maintenance costs. Installing sanitation in informal settlements and reusing municipal water for irrigation reduces the overall water demand of households and agriculture by 39%, compared to improving sanitation facilities in informal settlements without reusing the water for agriculture. Given that water is the limiting factor for crop fertigation, the generated nutrient-rich reuse water is sufficient to annually irrigate about 10 m2 to 13 m2 per sanitation user. Compared to crop nutrient requirements, there are too many nutrients in the reuse water. Thus when using nutrient-rich reuse water, no use of fertilizers and a careful salt management is necessary. When comparing this novel system with improved sanitation, advanced wastewater treatment and nutrient-rich water reuse to the conventional and to two adapted systems, results showed that the novel CuveWaters system is the best option for the given context in a semi-arid developing country. Therefore, the results of this study suggest a further roll-out of the novel CuveWaters system. The methodology developed and the results of this study demonstrated that taking sanitation users into consideration plays a major role for the planning of an integrated water reuse infrastructure because they are the determinant factor for the amount of available nutrient-rich reuse water. In addition, it could be shown that water reuse and rainwater harvesting systems for the irrigation of small-scale gardens provide a wide range of benefits and can be key to using scarce water resources more efficiently and to contributing to the Sustainable Development Goals.
Die Arachidonsäurekaskade spielt bei Entzündungsprozessen und der Schmerzentstehung eine wichtige Rolle. Deren primäre Produkte, die Leukotriene und die Prostaglandine, sind entzündungsfördernde Mediatoren und nehmen Einfluss auf den Entzündungs-auflösendenprozess und sind bei einer Dysregulation für diverse Erkrankungen wie z.B. Asthma bronchiale und allergische Rhinitis mitverantwortlich. Die Kaskade gliedert sich mit ihren beiden Hauptenzymen, Cyclooxygenase und 5-Lipoxygenase (5-LO), in zwei Wege auf. Beide Enzyme sind außerdem in der Lage entzündungsauflösenden Mediatoren zu bilden. Die Mediatoren wie z.B. Lipoxin können im Zellstoffwechsel einerseits über die Lipoxygenase-Route, oder andererseits wie „aspirin-triggered“-Lipoxin von der durch geeignete Wirkstoffe acetylierten Cyclooxygenase-2 (COX-2) katalysiert werden. Diese Mediatoren werden benötigt, um (chronische) Entzündungen und beschädigtes Gewebe zurück zur Homöostase zu führen.
Die Pharmakotherapie chronisch entzündlicher Erkrankungen mit guter Wirksamkeit und verträglichem Profil bei Langzeiteinnahme stellt jedoch eine Herausforderung dar. Die Therapie verzögern oft, z. B bei Einnahme von nicht-steroidalen Antirheumatika (NSAR), die Entzündungsauflösung, da die Bildung von entzündungshemmenden und entzündungs-auflösenden Lipidmediatoren gehemmt werden. Die gezielte Modulation und Einflussnahme auf die Arachidonsäurekaskade an einem der beiden Enzyme, stellt daher einen guten Ansatz für eine verbesserte Therapiemöglichkeit von (chronischen) entzündlichen Krankheiten dar. Diese Arbeit beschäftigt sich mit der Synthese von Modulatoren und Inhibitoren der Arachidonsäurekaskade. Zum einen befasst sie sich mit der Entwicklung von irreversiblen COX-2-acetylierenden Substanzen als neues anti-entzündliches und entzündungsauflösendes Prinzip. Zum anderen mit der Untersuchung der Struktur-Wirkungsbeziehung (SAR) von 2-Aminothiazolen als direkte 5-LO-Inhibitoren ausgehend von SKI-II, welches zuvor als Leitstruktur zur Entwicklung von 5-LO-Inhibitoren entdeckt wurde.
Als Leitstrukturen für die irreversiblen COX-2-acetylierenden Substanzen wurden bekannte COX-2 selektive Substanzen ausgewählt sowie vereinzelte nicht-selektive NSAR. Es wurden an der COX-2 Kristallstruktur Docking-Studien durchgeführt, um die geeignetsten Positionen für die Einführung einer (labilen) Acetylgruppe zu identifizieren. Aufgrund dieser Studien wurden drei Positionen ausgewählt zur Derivatisierung. Es wurden daraufhin zahlreiche Derivate synthetisiert von Celecoxib, Valdecoxib, Rofecoxib, Etericoxib, als Vertreter der (COX-2) selektive Inhibitoren, sowie von Acetylsalicylsäure, Diclofenac und Nimesulid-Analoga als Vertreter der nicht-selektiven NSARs. Zusätzlich wurden Derivate synthetisiert mit Michael-Akzeptoren als kovalente bindende Komponente. Alle synthetisierten Substanzen wurden sukzessiv auf ihre COX inhibitorischen Eigenschaften hin untersucht und auf COX-2 Selektivitäten überprüft. Weiterhin wurden von allen Derivaten Auswaschungs-Studien durchgeführt als Vorversuche welche Derivate eine irreversible COX-2-Inhibition hervorrufen. In den Vorversuchen zeigte die Verbindung ST-1650 am deutlichsten eine COX-2-Selektivität sowie eine starke irreversible Inhibition der COX-2. Die Verbindung ST-1650 wurde weiterhin auf indirekte Hinweise zur Entstehung von heilungsfördernden Mediatoren untersucht anhand von: M1-Macrophagen Polarisation und einem Schmerzmodell, dem Zymosan-Überempfindlichkeit Pfotenmodell. Im Makrophagen-Modell konnte ST-1650 keine Phänotypverschiebung hinzu entzündungsauflösenden M2-Makrophagen bewirken, sowie in den Schmerzmodellen leider keine schnellere Schmerzauflösung als die Kontrollgruppe. Ob diese Effekte durch mangelnde oder zu geringer Entstehung von entzündungshemmenden Mediatoren zurückzuführen ist, ist noch unklar.
Für die SAR der 2-Aminothiazole als direkte 5-LO-Inhibitoren wurden über 60 Verbindungen synthetisiert und untersucht. Zu Beginn erfolgte eine Optimierung der Grundstruktur als 5-LO-Inhibitor. Es wurden die Einflüsse der Substituenten des Thiazolsrings und des Aminolinkers auf die 5-LO-Aktivität ermittelt, um die SAR initialer Arbeiten zu vertiefen. Nach der SAR-Untersuchung im intakten Zellsystem konnten durch Kombination bevorzugter Strukturelemente die zwei Verbindungen ST-1853 und ST-1906, als neue potente 5-LO-Inhibitoren entwickelt werden, die sich als nicht-toxisch herausstellten. Diese beiden 5-LO-Inhibitoren wirken um einen Faktor 10 potenter und sind weniger toxisch verglichen mit der Leitstruktur SKI-II. ST-1853 wurde innerhalb der Arachidonsäurekaskade auch auf Off-targets getestet, deren Aktivitäten sie erst bei 100-fach höherer Konzentration beeinflusst, sowie in humanem Vollblut, wo sie sich ihre 10-fach bessere Wirksamkeit im Vergleich zu SKI-II bestätigte. Darüber hinaus erwies sich ST-1853 bei den ersten Überprüfungen seiner Stabilität unter physiologischen Bedingungen wie bei der in vitro Metabolisierung durch Rattenlebermikrosomen als ausreichend stabil und daher zur weiteren Charakterisierung gut geeignet.
Inhaltsverzeichnis 1. Einleitung …………………………………………………………………...3 1.1 Erklärungsversuche und Forschungsergebnisse der Gegenwart ……8 1.2 Zielrichtung und Abgrenzung der aktuellen Arbeit ………………..21 1.3 Intention und Erläuterung der Versuchsreihen ………………….....25 2. Grundlagen und Methodiken bezüglich des subjektiven visuellen Wahrnehmungsraums …………………………………………………........27 2.1 Die nativistische und die empiristische Anschauung ………………27 2.2 Räumliche Anordnungen der wahrgenommenen Objekte …………31 2.3 Über die visuell vermittelte Richtungs- und Lagebestimmung …....33 2.4 Visuelle Auswertungen der korrespondierenden Netzhautstellen …42 2.5 Visuelle Auswertungen der disparaten Netzhautstellen …………...44 2.6 Die Größenkonstanzleistung ………………………………………47 2.7 Psychophysikalische Grundlagen und Schwellenwerte …………...50 2.8 Physiologische Grundlagen ………………………………………..54 3. Experimentelle Untersuchung ……………………………………………..60 3.1 Versuchsaufbau und Ablauf zur Durchführung der Experimente …60 3.1.1 Zusammensetzungen der Versuchsteilnehmer ……………66 3.1.2 Erläuterungen und Ablauf der 2 Versuchsreihen …………66 3.2 Graphische Darstellungen der Messergebnisse ……………………71 3.2.1 I.Versuchsreihe ……………………………………………71 3.2.2 II.Versuchsreihe …………………………………………...93 3.3 Auswertung und Aufbereitung der Messdaten …………………..102 3.3.1 Auswertungen der I.Versuchsreihe ……………………..102 3.3.2 Auswertungen der II.Versuchsreihe …………………….120 3.3.3 Fehlerbetrachtungen der Versuchsreihen I und II ………122 3.4 Diskussion der Messdaten ……………………………………….124 4. Zusammenfassung und Ausblick ………………………………………...135 Begriffsverzeichnis mit kurzer Erklärung.…………………………………...137 Literaturverzeichnis …………………………………………………….........141 Bildquellenverzeichnis ………………………………………………….......143 Als Fazit kann man folgendes zusammenfassend sagen: Die aufgestellte Arbeitshypothese wurde durch die beiden Versuchsreihen verifiziert, denn die Ergebnisse ergaben folgendes: - In den Messreihen der Versuchsreihe I ist jeweils ein Anstieg der eingestellten Größe, je mehr Abstandsinformationen zugelassen wurden, zu verzeichnen. Das bedeutet, der Anstieg wurde umso größer, desto größer die AID wurde. Auch waren in allen Messreihen die monokularen Größeneinstellungen, bei sonst konstanter AID, gegenüber der binokularen Größeneinstellung geringer. Bei Verringerung der Einstellentfernung wurden die Abweichungen zwischen den subjektiven und den objektiven Größen ebenfalls größer. Das heißt also, die subjektive visuelle Wahrnehmungsgröße ist von der AID wie folgt abhängig: Das visuelle System bewertet subjektiv die Wahrnehmungsgröße bei maximaler AID nach oben und relativ dazu, bei minimaler AID nach unten. - Dass die aufgestellten Parameter die AID bedingen, konnte durch die 1. Messreihe gezeigt werden, da der jeweilige Anstieg der eingestellten Größe, nur durch die Variation eines Parameters erfolgte. Die Querdisparation konnte aber hier nicht als Parameter der die AID bedingt isoliert untersucht werden. Bei den meisten Probanden ergaben sich sehr schnell Doppelbilder und erzeugten bei ihnen ein Unbehagen. Aber dennoch floss dieser Parameter als einflussnehmende Größe in den Konvergenzgrad mit ein. Das Netzhautbild konnte nur kombiniert mit dem psychologischen Gefühl der Nähe isoliert betrachtet werden. Damit die Voraussetzungen in beiden Versuchen gleich waren, wurde in der Versuchsreihe II unter gleichen Versuchsbedingungen wie in der Versuchsreihe I gemessen. Auch hier wurden die Abstandsinformationen von minimal bis maximal sukzessive zugelassen. Durch die Messdaten der Versuchsreihe II konnte eindeutig gezeigt werden, dass die Abstandsunterschiedsschwelle umso geringer ausfällt, desto mehr Abstandskriterien hinzukamen, also die AID erhöht wurde. Analog kehren sich die Verhältnisse um, wenn die AID erniedrigt wird. Durch diesen kausalen Zusammenhang zwischen der Abstandsunterschiedsschwelle des visuellen Systems und der Güte der AID bestätigt sich zusätzlich die Annahme, dass die eingeführten Parameter des Abstandes tatsächlich als solche zu betrachten sind und die AID konstituieren. Denn wären sie keine Konstituenten der AID, so müssten die Unterschiedsschwellen der Versuchsreihe II in etwa gleich sein. Da aber die Änderung der Randbedingungen sich auf die verwertbaren Abstandsinformationen bezogen und somit die AID jeweils geändert wurde, ist die aufgestellte Annahme über die Parameter, welche die AID bedingen, berechtigt. - Dass im orthostereoskopischen Bereich die subjektiven Größeneinstellungen gegenüber der Zentralprojektion am weitesten auseinander liegen, bestätigte sich durch alle Messreihen der Versuchsreihe I. In diesem Bereich existiert die maximale Unabhängigkeit der visuellen Wahrnehmungsgröße vom Gesichtswinkel. In diesem Bereich liegt eine sehr hohe Güte in der Größenkonstanzleistung des visuellen Systems vor. Dass die Größenkonstanz qualitativ dem aufgestellten Formalismus aus Annahme 2 genügt und die aufgestellte qualitative Relation sie beschreibt, konnte nicht gezeigt werden. Das begründet sich durch das Zustandekommen der Größenkonstanz. Sie resultiert bekanntlich aus einer Entfernungsänderung. Je nach dem, ob sich ein Objekt dem Beobachter nähert oder entfernt, setzt diese Bildgrößenkompensation ein. Von daher unterliegt sie einem dynamischen Prozess und kann dadurch mit Relation (2´) nicht beschreiben werden. - Mit der Relation 2´ kann man qualitativ die Unbestimmtheit in der visuellen Wahrnehmungsentfernung beschreiben und qualitativ erklären. Der Aspekt der Abstandsunterschiedsschwelle ist etwas verwirrend. Auf der einen Seite handelt es sich um eine Vermögensleistung des visuellen Systems, welches abhängig ist von den vorliegenden Abstandsinformationen, die ihrerseits die AID bedingen. Auf der anderen Seite bedingt die Abstandsunterschiedsschwelle die AID durch ihre Güte und Qualität, beeinflusst also umgekehrt auch die AID. In der Versuchsreihe 2 wurde auf die Vermögensleistung des visuellen Systems und deren Abhängigkeit von den Parametern eingegangen, die auch die AID bedingen. Dies diente dazu, zusätzlich zu zeigen, dass es sich bei diesen Parametern um Parameter handelt, welche die AID bedingen. Die Argumentationskette lautete wie folgt: Die Abstandsunterschiedsschwelle beeinflusst die AID. Die betrachteten Parameter beeinflussten die Abstandsunterschiedsschwelle, dass experimentell verifiziert wurde. Daraus folgte dann, dass eben diese Parameter auch die AID bedingen. Diese Argumentation diente nur als zusätzliches Hilfsmittel. Bei Punkt 4 sollte die Abstandsunterschiedsschwelle und ihr Einfluss auf die Unbestimmtheit hin betrachtet werden. Dies hat aber nur sekundäre Relevanz, da hier die Anwendung der Relation 2´ im Vordergrund stand. - Ob die Fitting-Funktion, welche die Messdaten der Versuchsreihe I approximierte, sich als Algorithmus für die Darstellung einer Bewegungssimulation eignet, kann noch nicht gesagt werden. Es müssen noch Untersuchungen umgesetzt werden, welche die Diagonalbewegung beschreiben. In der stirnfrontalen Vor- und Zurückbewegung ist der simulierte Bewegungsablauf mit der Fitting-Funktion gegenüber der linearen Darstellung realistischer. Dies ist in der ersten 100cm Raumtiefe besonders merklich, da die Fitting-Funktion die Größenkonstanzleistung des visuellen Systems berücksichtigt. Die auf dem konventionellen Computerspielmarkt eingesetzten Algorithmen für die Darstellung von Vor- und Zurückbewegungen sind dagegen nahezu linear, welches dem Beobachter einen etwas unnatürlichen Seheindruck vermittelt. Die Fitting-Funktion könnte auch für die Simulation von Zeichentrickfilmen verwendet werden. Auch dort wird die Größenkonstanzleistung des visuellen Systems nicht berücksichtigt. Aber gerade diese Konstanzleistung gestaltet die Größenvariation der wahrgenommenen Objekte bei Entfernungsänderungen. Dies ist besonders im orthostereoskopischen Bereich merklich.
Die vorliegende Arbeit beschäftigt sich mit den Arbeitsgedächtnisleistungen zweier sprachlicher Sondergruppen und der Möglichkeit über die Leistung des Arbeitsgedächtnisses validere Prognosen des weiteren sprachlichen bzw. schriftsprachlichen Entwicklungsverlaufs zu erreichen, als dies über eine ausschließliche Erhebung der Sprachleistung möglich ist. Die Basis dieser Untersuchungen bilden zwei Längsschnittstudien. Die Daten der sprachlichen Sondergruppe der Late Talker (kognitive Aspekte) wurden in Heidelberg an der Universität und dem Frühinterventionszentrum (FRIZ) zwischen dem zweiten und dem neunten Lebensjahr der Kinder (N=93 mit n1=59 Late Talkers und n2=34 Kontrollkindern) in bestimmten Abständen erhoben. Neben den sprachlichen und kognitiven Leistungstests wurde zum letzten Messzeitpunkt zusätzlich die Arbeitsgedächtnisleistung erfasst. Dabei sollte untersucht werden, ob die Leistungen im Arbeitsgedächtnis valide unterscheiden können zwischen Kindern mit persistierenden Sprachentwicklungsproblemen und Kindern, die das Defizit im weiteren Entwicklungsverlauf aufholen (Late Bloomer). Die Ergebnisse zeigen, dass mithilfe der Leistungen in der Phonologischen Schleife eine sehr gute Trennung der Late Bloomer von den Kindern, die weiter eine Sprachproblematik aufweisen, vorgenommen werden kann. Ein Hinzuziehen der zentral-exekutiven Leistungen bringt hingegen keine Verbesserung in der Vorhersagegenauigkeit.
Der zweiten Untersuchung liegen zum einen die Daten der Normierung der Arbeitsgedächtnistestbatterie für Kinder von fünf bis zwölf Jahren (AGTB 5-12 {Hasselhorn et al., 2012}) zugrunde (N=1.669 davon 243 Kinder mit Migrationshintergrund), anhand derer überprüft wurde, ob Kinder mit Migrationshintergrund in irgendeiner Weise durch die Nutzung der Testbatterie benachteiligt werden, sei es 1. Durch die ungeprüfte Übernahme des Arbeitsgedächtnismodells (nach dem Vorbild von Baddeley (1986)), dass für Muttersprachler bereits bestätigt werden konnte, 2. Durch Benachteiligungen in bestimmten Untertests und 3. Durch die Testbatterie im Allgemeinen, die Art der Testung und die Wahl bestimmter Items. Zur Überprüfung, inwieweit Prädiktoren, die bei Muttersprachlern valide Prognosen der späteren schriftsprachlichen Leistungen erlauben, auch bei Kindern mit Migrationshintergrund genutzt werden können, wird ein weiterer längsschnittlicher Datensatz herangezogen. Von den 127 Kindern der Längsschnittstudie des Projekts ANNA „Gedächtnis und Schulfähigkeit“ (Individual Development and Adaptive Education of Children at Risk am Deutschen Institut für internationale pädagogische Forschung - DIPF) weisen 60 Kinder einen Migrationshintergrund auf. Auf Basis beider Datensätze konnte nachgewiesen werden, dass das Modell des Arbeitsgedächtnisses auch bei Kindern mit Migrationshintergrund Anwendung findet und die Benachteiligungen bei der Testung besonders gering ausfallen, je früher die Kinder untersucht werden. Es zeigt sich aber auch, dass die AGTB 5-12 an manchen Stellen überarbeitet werden sollte, um mögliche Benachteiligungen noch weiter zu verringern. Außerdem konnte gezeigt werden, dass sich auch bei Kindern mit Migrationshintergrund valide Prognosen späterer schriftsprachlicher Leistungen anhand ihrer Arbeitsgedächtnisleistungen treffen lassen und hier hauptsächlich auf Basis der phonologischen Gesamtleistungen (alle Untertests).
Photo-initiated processes, like photo-excitation and -deexcitation, internal conversion, excitation energy transfer and electron transfer, are of importance in many areas of physics, chemistry and biology. For the understanding of such processes, detailed knowledge of excitation energies, potential energy surfaces and excited state properties of the involved molecules is an essential prerequisite. To obtain these informations, quantum chemical calculations are required. Several quantum chemical methods exist which allow for the calculation of excited states. Most of these methods are computationally costly what makes them only applicable to small molecules. However, many biological systems where photo-processes are of interest like light-harvesting complexes in photosynthesis or the reception of light in the human eye by rhodopsin are quite large. For large systems, however, only few theoretical methods remain applicable. The currently most widely used method is time-dependent density functional theory (TD-DFT), which can treat systems of up to 200–300 atoms with the excitation energies of some excited states exhibiting errors of less than 0.5 eV. Yet, TD-DFT has several drawbacks. The most severe failure of TD-DFT is the false description of charge transfer states which is particularly problematic in case of larger systems where it yields a multitude of artificially low-lying charge transfer states. But also Rydberg states and states with large double excitation character are not described correctly. Still, if these deficiencies are kept in mind during the interpretation of results, TD-DFT is a useful tool for the calculation of excited states. In my thesis, TD-DFT is applied in investigations of excitation energy and electron transfer processes in light-harvesting complexes. Since light-harvesting complexes, which consist of thousands of atoms, are by far too large to be calculated, model complexes for the processes of interest are constructed from available crystal structures. The model complexes are used to calculate potential energy curves along meaningful reaction coordinates. Artificial charge transfer states are corrected with the help of the so-called ∆DFT method. The resulting potential energy curves are then interpreted by comparison with experimental results. For the light-harvesting complex LH2 from purple bacteria the experimentally observed formation of carotenoid radical cations is studied. It is shown that the carotenoid radical cation is formed most likely via the optically forbidden S1 state of the carotenoid. In light-harvesting complex LHC-II of green plants the fast component of the so-called non-photochemical quenching (NPQ) is investigated. Two of several different hypotheses on the mechanism of NPQ, which have been proposed recently, are studied in detail. The first one suggests that NPQ proceeds via simple replacement of violaxanthin by zeaxanthin in the binding pocket in LHC-II. However, the calculated potential energy curves exhibit no difference between violaxanthin and zeaxanthin in the binding pocket. In combination with experimental results it is thus shown that simple replacement alone does not mediate NPQ in LHC-II. The second hypothesis proposes conformational changes of LHC-II that lead to quenching at the central lutein and chlorophyll molecules during NPQ. My TD-DFT calculations demonstrate that if this mechanism is operative, only the lutein 1 which is one of two central luteins present in LHC-II can take part in the quenching process. This is corroborated by recent experiments. Though several conclusions can be drawn from the investigations using TD-DFT, the interpretability of the results is limited due to the deficiencies of the method and of the models. To overcome the methodological deficiencies, more accurate methods have to be employed. Therefore, the so-called algebraic diagrammatic construction scheme (ADC) is implemented. ADC is a widely overlooked ab initio method for the calculation of excited states, which is based on propagator theory. Its theoretical derivation proceeds via perturbation expansion of the polarization propagator, which describes electronic excitations. This yields separate schemes for every order of perturbation theory. The second order scheme ADC(2), which is employed here, is the equivalent to the Møller-Plesset ground state method MP(2), but for excited states. It represents the computationally cheapest excited state method which can correctly describe doubly excited states, as well as Rydberg and charge transfer states. The quality of ADC(2) results is demonstrated in calculations on linear polyenes which serve as model systems for the larger carotenoid molecules. The calculations show that ADC(2) describes the three lowest excited states of polyenes sufficiently well, particularly the optically forbidden S1 state which is known to possess large double excitation character. Yet, the applicability of the method is limited compared to TD-DFT due to the much larger computational requirements. To facilitate the calculation of larger systems with ADC(2) a new variant of the method is developed and implemented. The variant employs the short-range behavior of electron correlation to reduce the computational effort. As a first step, the working equations of ADC(2) are transformed into a basis of local orbitals. In this basis negligible contributions of the equations which are due to electron correlation can be identified based on the distances of local orbitals. A so-called “bumping” scheme is implemented which removes the negligible parts during a calculation. This way, the computation times as well as the disk space requirements can be reduced. With the “bumping” scheme several new parameters are introduced that regulate the amount of “bumping” and thereby the speed and the accuracy of computations. To determine useful values for the parameters an evaluation is performed using the linear polyene octatetraene as test molecule. From the evaluation an optimal set of parameter values is obtained, so that the computation times become minimal, while the errors in the excitation energies due to the “bumping” do not exceed 0.15 eV. With further calculations on various molecules of different sizes it is tested if these parameter values are universal, i.e. if they can be used for all molecules. The test calculations show that the errors in the excitation energies are below 0.15 eV for all test systems. Additionally, no trend is visible for the errors that their magnitude might depend on the system. In contrast, the amount of disregarded contributions in the calculations increases drastically with growing system size. Thus, the local variant of ADC(2) can be used in future to reliably calculate excited states of systems which are not accessible with conventional ADC(2).
Despite major improvements of the therapy, many B-cell Non-Hodgkin’s lymphoma (B-NHL) entities still have a poor prognosis. New therapeutic options are urgently needed. Therefore this study sets out to investigate oncogenic signalling pathways in the two B-NHL entities mantle cell lymphoma (MCL) and diffuse large B-cell lymphoma (DLBCL) in order to define new potential therapeutic targets.
MCL cells overexpress the anti-apoptotic protein BCL-2, thereby they evade apoptosis. With venetoclax, the first-in-class BCL-2 specific inhibitor was approved and achieved good response rates in MCL. However, some cases display intrinsic or acquired resistance to venetoclax. In order to improve the therapy, this study aimed to identify genes which confer sensitivity or resistance towards venetoclax upon their respective knockout. To this end, a genome-wide CRISPR/Cas9-based loss-of-function screen was conducted in the MCL cell line Maver-1. The E3 ubiquitin
ligase MARCH5 was identified as one of the top hits conferring sensitivity
towards venetoclax upon its knockout. This finding was validated in a competitive growth assay including two more MCL cell lines, Jeko-1 and Mino. MARCH5 knockout also sensitised Jeko-1 cells towards venetoclax even though this cell line was insensitive towards venetoclax in its wild-type form. Using BH3 profiling, an increased dependency on BCL-2 of MARCH5-depleted cells confirmed this finding. The sensitisation was found to be based on induction of apoptosis upon MARCH5 knockout and to an even higher extent upon additional treatment of MARCH5-depleted cells with venetoclax. As already described for epithelial cancer entities, the BCL-2 family members MCL-1 and NOXA were upregulated in MCL cell lines upon MARCH5 knockout. This led to the hypothesis that MARCH5 is a potential
regulator of intrinsic apoptosis with NOXA as a key component. A competitive growth assay with MARCH5 and NOXA co-depleted cells revealed a partial reversion of the BCL-2 sensitisation compared to MARCH5 knockout alone. Furthermore, mass spectrometry-based methods were used to gain more insight into other cellular pathways and networks which might be regulated in a MARCH5-dependent manner. In an interactome analysis, proteins which regulate mitochondrial morphology, such as Drp-1 were identified as MARCH5 interactors. Besides this expected finding, interaction between MARCH5 and several members of the BCL-2 family as well as a potential connection between MARCH5 and vesicular trafficking was discovered. As expected, an ubiquitinome analysis of MARCH5-depleted cells revealed decreased levels of MCL-1 and NOXA ubiquitination. Additionally, a potential role of MARCH5 in the ubiquitination of several members of the cell cycle regulatory
pathway was discovered. Based on the broad spectrum of cellular pathways which seem to be regulated in a MARCH5-dependent manner, it was hypothesised that MARCH5 primarily regulates BCL-2 family members which in turn regulate intrinsic apoptosis on the one hand and additionally are involved in the regulation of various other pathways on the other hand.
In summary, this study provides insight into a MARCH5-dependent MCL1-1/NOXA axis in MCL cells and potential implications into related cellular processes.
In addition to the anti-apoptotic pathways described above, B-cell receptor (BCR) signalling is known to provide a pro-survival signal to both normal and malignant B-cells. Targeting the BCR signalling pathway therefore is a promising therapeutic target for B-cell malignancies. In order to gain more insight into the differential modes of BCR signalling of ABC- and GCB-DLBCL cells, genes/proteins which displayed differential essentiality in ABC- and GCB-DLBCL cells were aimed to be defined. Consequently, data sets from a CRISPR/Cas9-based loss-of-function screen
were re-analysed. SASH3 was identified as a gene which was essential for GCB- but not for ABC-DLBCL cells. Since this protein is known to be involved in T-cell receptor (TCR)-signalling, SASH3 was assumed to play a potential role in BCR signalling as well and was therefore investigated in more detail. A competitive growth assay confirmed that SASH3 knockout was toxic exclusively for GCB-DLBCL cell lines. An interactome analysis in ABC- and GCB-DLBCL cells revealed interaction between SASH3 and many components of the proximal BCR signalling pathway as well as several downstream signalling pathways such as the PI3K or the NF-ΚB pathway.
An integration of the interactome with data from the CRISPR/Cas9-based loss-offunction screen revealed differential essentiality of the SASH3-interacting proteins in ABC- and GCB-DLBCL cells. It was hypothesised that SASH3 might regulate PI3K signalling on which GCB- but not ABC-DLBCL cells are known to dependent. Discontinuation of the regulation of PI3K signalling could therefore be exclusively toxic to GCB-DLBCL cells.
Taken together, this study describes a subtype-specific dependency of GCB-DLBCL cells on SASH3. Furthermore, the SASH3 interactome has been investigated in B-cells for the first time, thereby highlighting a potential role in proximal BCR signalling and involvement in specific BCR-related downstream signalling pathways.
1. Fab co-complexes of proton pumping NADH:ubiquinone oxidoreductase (complex I) Fab fragments suitable for co-crystallization with complex I were generated using an immobilized papainbased protocol. The binding of the antibody fragments to complex I was verified using Surface Plasmon Resonance and size exclusion chromatography. The binding constants of the antibodies and their respective Fab fragments were found to be in the nanomolar range. This work presents the first report on successful crystallization of complex I (proton pumping NADH:ubiquinone oxidoreductase) from Yarrowia lipolytica with proteolytic Fab fragments. The quality of the crystals was significantly improved when compared to the initial experiments and the best crystals diffracted X-rays to a resolution of ~7 Å. The activity of complex I remained uninfluenced by antibody fragment binding. The initial diffraction data suggest that the complex I/Fab co-complex crystals represent a space group different to the one observed for the native protein. Ongoing experiments are aimed at further enhancements of the diffraction quality of the crystals. Providing a different space group the CI/Fab co-complexes may become a very useful approach for structure determination of the enzyme. Moreover, the bound Fab offers an additional possibility to generate phase information. The antibody-mediated crystallization represents a valuable tool in structural characterization of the NADH:oxidoreductase subcomplexes or even single subunits. 2. UDP-glucose pyrophosphorylase UDP-glucose pyrophosphorylase from Yarrowia lipolytica displays affinity towards Ni2+ NTA and was first detected in a contaminated sample of complex I. Following, separation from complex I, Ugp1p was purified using anion exchange chromatography. Sequence similarity studies revealed high identity to other known pyrophosphorylases. As indicated by laser-based mass spectrometry method (LILBID) Ugp1p from Y. lipolytica builds octamers similarly to the enzyme from Saccharomyces cerevisiae. The initial crystals grew as thin needles favorably in sitting drop setups. The size of the crystals was increased by employment of a micro batch technique. The improved crystals diffracted X-rays to a resolution of 3.2 Å at the synchrotron beamline. Structural characterization is under way using a molecular replacement approach based on the published structure of baker’s yeast UGPase.
As one of the most widespread infectious diseases in the world, it is currently estimated that approximately 296 million people globally are chronically infected with Hepatitis B virus (HBV), the consequences of HBV infection cause more than 620,000 deaths each year. Although safe and effective HBV vaccines have reduced the incidence of new HBV infections in most countries, there are still around 1.5 million new infections each year. HBV remains a major health problem because there is no large-scale effective vaccination strategy in many countries with a high burden of disease, many people with chronic HBV infection are not receiving effective and timely treatment, and a complete cure for chronic infection is still far from being achieved.
Since its discovery, HBV has been identified as an enveloped DNA virus with a diameter of 42 nm. For efficient egress from host cells, HBV is thought to acquire the viral envelope by budding into multivesicular bodies (MVBs) and escape from infected cells via the exosome release pathway. It is clear that HBV hijacks the host vesicle system to complete self-assembly and propagation by interacting with factors that mediate exosome formation. Consequently, the overlap with exosome biogenesis, using MVBs as the release platform, raises the possibility for the release of exosomal HBV particles. Currently, virus containing exosomal vesicles have been described for several viruses. In light of this, this study explored whether intact HBV-virions wrapped in exosomes are released by HBV-producing cells.
First, this study established a robust method for efficient separation of exosomes from HBV virions by a combination of differential ultracentrifugation and iodixanol density gradient centrifugation. Fractionation of the density gradient revealed that two populations of infectious viral particles can be separated from the culture fluids of HBV-producing cells. The population present in the low-density peak co-migrates with the exosome markers. Whereas the population that appeared in the high-density fractions was the classical HBV virions, which are rcDNA-containing nucleocapsids encapsulated by the HBV envelope.
Subsequently, the characterization of this low-density population was performed, namely the highly purified exosome fraction was systematically investigated. Relying on the detergent sensitivity of the exosome membrane and the outer envelope of the HBV virus, disruption of the exosome structure by treatment with limited detergent revealed the presence of HBsAg in the exosomes. At the same time, mild and limited NP-40 treatment of highly purified exosomes and a further combination of density gradient centrifugation resulted in the stepwise release of intact HBV virions and naked capsids from the exosomes generated by HBV-producing cells. This implies the presence of intact HBV particles encapsulated by the host membrane.
The presence of exosome-encapsulated HBV particles was consequently also verified by suppressing the morphogenesis of MVBs or exosomes. Impairment of MVB- or exosome-generation with small molecule inhibitors has significantly inhibited the release of host membrane-encapsulated HBV particles as well. Likewise, silencing of exosome-related proteins caused a diminution of exosome output, which compromised the budding efficiency of wrapped HBV.
Moreover, electron microscopy images of ultra-thin sections combined with immunogold staining visualized the hidden virus in the exosomal structure. Additionally, the presence of LHBs on the surface of exosomes derived from HBV-expressing cells was also observed.
As expected, these exosomal membrane-wrapped HBV particles can spread productive infection in differentiated HepaRG cells. In HBV-susceptible cells, as LHBs on the membrane surface, this type of exosomal HBV appeared to be uptaken in an NTCP receptor-dependent manner.
Taken together these data indicate that a fraction of intact HBV virions can be released as exosomes. This reveals a so far not described release pathway for HBV. Exosomes hijacked by HBV act as a transporter impacting the dissemination of the virus.
Conclusion Scale Integration Based on the results of spike-field coherence, the underlying process of shortterm memory seems to involve networks of different sizes within and, most probably, beyond prefrontal cortex. Spikes, which were generated by single neurons, cooperate with local field potentials, which were the slower fluctuations of the environment. Although differences among behavioral conditions appear to be based on rather few instances of phase-locked spikes, the task-related effects on spike-field coherence are highly reliable and cannot be explained by chance, as the comparison of results from experimental and simulated data shows. The differential locking of prefrontal neuron populations with two different frequency bands in their input signals suggests that neuronal activity underlying short-term memory in prefrontal cortex transiently engages cortical circuits on different spatial scales, probably in order to coordinate distributed processes. NeuroXidence method and Synchronizedfiring Based on the results of the calibration datasets, for bi- and multi-variate cases, the extension of NeuroXidence remains its sensitivity and reliability of detecting coordinate firing events for different processes. Based on this extension of NeuroXidence, we demonstrated that in monkey’s prefrontal cortex during short-term memory task, encoding and maintenance of the information rely on the formation of neuronal assemblies characterized by precise and reliable synchronization of spiking activity on a millisecond time scale, which is consistent with the results from spike-spike coherence. The task and performance dependent modulation of synchrony reflects the dynamic formation of group of neurons has large effect on short-term-memory.
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
Die vorliegende Arbeit befasst sich mit dem bekannten Phänomen der postmortalen Insulin-Instabilität. Die sichere Analyse von Insulin in Serum sowie vor allem auch in postmortalen Blutproben, ist für die forensische Begutachtung von enormer Bedeutung, da sie z. B. im Falle einer kriminellen Handlung einen hohen Beweiswert hat. Bei den durchgeführten Untersuchungen zeigte sich, dass bei einer Inkubation von Insulin in Serum sowie auch bei einer Inkubation mit intakten Blutzellen keine Abnahme der Insulinkonzentration eintritt. Daher kann für die Insulinbestimmung Serum als Untersuchungsmaterial empfohlen werden. Da postmortale Blutproben häufig eine Hämolyse aufweisen, wurde frisch entnommenes Blut hämolysiert und mit Insulin inkubiert. Hierbei zeigte sich, dass die Insulinkonzentration innerhalb von 5 Stunden bei 37°C signifikant auf 20% der Ausgangskonzentration sank. Ein proteolytischer Insulinabbau konnte ausgeschlossen werden, da der Zusatz von Enzyminhibitoren keine Hemmung des Insulinabbaus bewirkte. Bei der Hämolyse tritt u. a. der rote Blutfarbstoff Hämoglobin aus den Erythrocyten aus. In einer vergleichenden Inkubation aus hämolysiertem Blut und in Reinform erhältlichem Hämoglobin konnte festgestellt werden, dass die Insulinkonzentration in beiden Ansätzen in gleichem Maß absank. Hieraus wurde geschlossen, dass der Abbau auf das Hämoglobinmolekül zurückzuführen ist. Im Folgenden wurden systematische Untersuchungen angestellt, welcher Anteil des Hämoglobins für diesen Abbau verantwortlich ist. Zunächst wurde der Einfluss diverser Oxidationsstufen in Eisensalzen oder im Hämoglobin (Hb/MetHb), von Sauerstoff (Oxy-/CO-Hb), der isolierten Hämgruppe und der isolierten Globinketten untersucht. Nur die Inkubation von Insulin mit den isolierten Globinketten führte ebenfalls zu einem Insulinabbau, weswegen geschlussfolgert wurde, dass der proteinogene Teil des Hämoglobins im Wesentlichen den Insulinabbau verursacht. Eine Hemmung des Abbaus konnte nur bei Erniedrigung des pH-Werts auf 2,7 oder bei Alkylierung des Hämoglobins mit Jodacetamid erreicht werden. Jodacetamid ist ein Alkylierungsreagenz, das selektiv Thiolgruppen alkyliert. Zwar konnte die selektive Alkylierung der Thiolgruppen im Hämoglobin-Molekül mittels Flugzeitmassenspektrometrie nicht differenziert werden, aber die Ergebnisse lassen den Schluss zu, dass mindestens eine Thiolgruppe der Hämoglobin-Beta-Kette für den Insulinabbau verantwortlich ist. Der zweite Teil der vorliegenden Arbeit beschäftigt sich mit der Suche nach den Insulinabbauprodukten. Bekannte Lagerungsartefakte von Insulin, wie sie in der Literatur beschrieben werden, konnten nicht nachgewiesen werden. Auch kovalente Insulinaddukte am Hämoglobin wurden nicht beobachtet. Dagegen wurde eine Spaltung von Insulin in dessen A- und B-Kette beobachtet, allerdings mit einer Massenabnahme entsprechend dem Verlust von 4 bzw. 2 Protonen. Es wird postuliert, dass die veränderten Ketten nach einer Disulfidbrückenspaltung des Insulins wieder intramolekulare Disulfidbrücken bilden, sodass eine dehydrierte A- und B-Kette entsteht. Bei der A-Kette gibt es drei Möglichkeiten der Konfiguration der Disulfidbrücken, drei Isomere wurden auch chromatographisch unterschieden. Die Intensität der Kettenbildung entsprach allerdings nur ca. 10% des Insulinausgangssignals und sank nach dem Erreichen eines Maximums nach 20 Stunden auch wieder ab, weswegen angenommen wird, dass auch noch weitere Abbauprodukte gebildet werden. Anhand weiterer Untersuchungsverfahren (Fluoreszenz, Gelelektrophorese, isoelektrische Fokussierung) wurde zwar nach weiteren Abbauprodukten gesucht, es konnten allerdings keine Weiteren nachgewiesen werden. Es wurde eine Extraktionsmethode für Insulin und dessen Abbauprodukte entwickelt, die robust und auch für postmortale Blutextrakte geeignet scheint. Aufgrund der mangelnden Sensitivität des zur Verfügung stehenden Analysensystems konnte die Methode nur in einem sehr hohen Konzentrationsbereich überprüft werden, was weiterführende Untersuchungen in niedrigen Konzentrationsbereichen nötig macht. Die Extraktionsmethode könnte auch für Gewebeextrakte eingesetzt werden, wobei Leber- und Nierengewebe nicht geeignet erscheinen, da bei Inkubationen auch hier eine erhebliche Insulinabnahme festgestellt wurde. Für die Praxis wird, wenn möglich, eine Insulinbestimmung aus Serum empfohlen. Weiterer Forschungsbedarf besteht für die Untersuchung der Insulinstabilität in realen postmortalen Blutproben und im physiologischen Konzentrationsbereich.
Im Mittelpunkt der vorliegenden Arbeit stehen das qualitative soziologische Interview und seine Auswertung. Hierzu werde ich die im Zusammenhang mit einem konkreten abgeschlossenen Forschungsprojekt geführten Interviews und deren Interpretation empirisch untersuchen. Die zentrale erkenntnistheoretische Basis besteht in der Vorstellung einer narrativen Konstruktion von Wahrheit sowie der Vorstellung von wissenschaftlicher Geltung im Allgemeinen und der Geltung dieser konkreten Auswertungen im Besonderen. ...
Das Buch beschreibt die Nutzung türkischer populärer Musik und ihre Bedeutung für türkische Jugendliche in Deutschland. Es zeigt auf, dass die Nutzung türkischer Musik nicht die Ursache oder Folge einer Unfähigkeit oder eines Unwillens zur Integration ist, sondern vielmehr ein konstruktives Element innerhalb des individuellen Integrationsprozesses.
In der vorliegenden Studie wurden Adoptierte auf Merkmale wie Selbstbewusstsein, Widerstandsfähigkeit und Bindungseinstellungen in Abhängigkeit verschiedener möglicher Einflussfaktoren wie beispielsweise Heimaufenthalten untersucht. Mittelpunkt der Forschung war die Exploration der Entwicklung von Persönlichkeitsmerkmalen in Abhängigkeit der verschiedenen Adoptionsformen, die den Kontakt zu den leiblichen Eltern möglich machen oder verhindern. Untersuchungen an erwachsenen Adoptierten sind noch selten, ebenso gibt es keine wissenschaftlichen Studien in Deutschland, die sich mit dem Thema der Adoption befassen. Auch die Forschung auf dem Gebiet der verschiedenen Adoptionsformen und ihrer Auswirkung auf die Entwicklung von Persönlichkeitsmerkmalen bei Adoptierten ist noch sehr jung. Dies wurde mit der vorliegenden Studie deutschlandweit erstmalig in Angriff genommen. Die Ergebnisse zeigten, dass Heimaufenthalte, je häufiger sie sind, zu einer verminderten Widerstandsfähigkeit der Adoptierten führten. Heimaufenthalte konnten als starker Prädiktor für verminderte Resilienz identifiziert werden. Ebenso sanken die Werte auf manchen Skalen der Multidimensionalen Selbstwertskala wie beispielsweise die Wertschätzung der eigenen Leistungsfähigkeit. Adoptierte wurden mit steigender Anzahl an Heimaufenthalten neurotischer. Leider konnte aufgrund mangelhafter Angaben die Dauer der Heimaufenthalte und Aufenthalte in Pflegefamilien nicht in die Auswertung mit einbezogen werden, darüber hinaus auch nicht die Qualität der Erinnerungen an diese Heimaufenthalte. Dennoch lässt sich feststellen, dass Heimaufenthalte das Selbstwertgefühl und die Selbstsicherheit Adoptierter nachhaltig beeinträchtigen können. Sie sollten so gering wie möglich gehalten werden. Auf die Bindungseinstellungen zeigten sie keine Auswirkungen. Hier könnte zukünftig eine genauere Untersuchung des Einflusses von Heimaufenthalten erfolgen, die unter anderem die Dauer und zusätzliche Wechsel von Pflegefamilien mit einbezieht. Bezüglich der Adoptionsformen offene Adoption vs. Inkognitoadoption konnte gezeigt werden, dass es für die Entwicklung der untersuchten Persönlichkeitsmerkmale keine Rolle zu spielen scheint, ob die Adoptierten die Möglichkeit des Kontaktes zu ihren leiblichen Eltern haben oder nicht. Dennoch führte die positive Bewertung dieses Kontaktes zu besseren Ergebnissen bezüglich des Selbstwertes als die negative Bewertung des Kontaktes zu den leiblichen Eltern. Interessant ist, dass Adoptierte, die keine Kontaktmöglichkeit zu ihren leiblichen Eltern hatten, bessere Werte bezogen auf Facetten des Selbstwertgefühles zeigten als Adoptierte, die diesen Kontakt negativ bewerteten. Es scheint, als wäre es für das eigene Selbstbewusstsein gesünder, keinen Kontakt zu haben als ihn letztendlich negativ zu bewerten. Positiv empfundener Kontakt konnte das Selbstwertgefühl und die Bindungseinstellungen nicht zusätzlich verbessern. Allerdings kann keine sinnvolle Konsequenz aus diesen Ergebnissen gezogen werden. Im Voraus ist selten zu beurteilen, wie der / die Adoptierte das Treffen und den Kontakt zu den leiblichen Eltern bewerten wird. Dies hängt mit Sicherheit nicht nur vom Adoptierten selbst, sonder mitunter von einer Anzahl an Faktoren ab, nicht zuletzt von dem Vorhandensein früher Vorurteile und der Unterstützung seitens des Adoptivelternhauses. Es ist nicht verantwortlich und angemessen, aus reiner Spekulation über den möglichen Ausgang eines Kontaktes diesen im Voraus zu verhindern und dem Kind diese Möglichkeit zu versagen. Laut den Ergebnissen ist ein anderes Ereignis im Leben eines Adoptierten für sein Selbstwertgefühl und sein Bindungsverhalten entscheidender. Dies bezieht sich auf die Kommunikation der Adoptiveltern mit ihrem Kind. Wichtigster Prädiktor für ein gesundes Selbstbewusstsein und günstige Bindungseinstellungen war laut den Ergebnissen das Geständnis der Eltern über die Adoption. Eltern, die diesbezüglich offen und ehrlich ihren Kindern gegenüber waren, wurden in ihrem Erziehungsverhalten von diesen als emotional wärmer und weniger kontrollierend bewertet als Eltern, die ihre Kinder nicht über die Adoption aufgeklärt hatten. Adoptierte, die über ihre eigene Adoption nicht aufgeklärt wurden, zeigten vermindertes Selbstwertgefühl, verminderte Widerstandsfähigkeit und schlechtere Bindungseinstellungen, wobei die Skala „Nähe“, das heißt die Messung zur Fähigkeit, andere Menschen an sich heran zu lassen, Werte außerhalb des Normbereiches aufzeigte und man hier sogar von einem pathologisch veränderten Persönlichkeitsmerkmal sprechen kann. Auch das Alter bei Aufklärung spielt eine wichtige Rolle. Frühe Aufklärung über die Adoption, in der vorliegenden Studie wurde ein Zeitpunkt bis zum neunten Lebensjahr als früh definiert, führte zu höherem allgemeinen Selbstwertgefühl und einer erhöhten Widerstandsfähigkeit. Auf die Bindungseinstellungen schien der Zeitpunkt der Aufklärung keine Auswirkung zu haben. Eltern, die ihre Kinder früh über ihre Adoption informierten, wurden als weniger überbehütend und kontrollierend bewertet. Wichtig zu erwähnen ist, dass die Werte bei den Rechnungen der Gruppenvergleiche, mit Ausnahme des oben erwähnten Wertes für die Skala „Nähe“ der Adult Attachment Scale, alle im Normbereich lagen. Es liegen also, auch im Vergleich mit den Normstichproben, keine Befunde vor, die bei der adoptierten Stichprobe auf Pathologien hinweisen. Zu finden sind jedoch leichte Abweichungen von der Norm, die statistisch gesehen von Signifikanz sind und auch inhaltlich wichtige Hinweise auf die Folgen von Adoption liefern. Obwohl der Großteil der Adoptierten (90.3%) über ihre Adoption aufgeklärt worden war und dies laut oben beschriebener Ergebnisse eine günstiger Faktor bezüglich der Entwicklung von Selbstwert und Bindung ist, lässt sich feststellen, dass Adoptierte im Vergleich zu den nicht adoptierten Normstichproben ein vermindertes Selbstwertgefühl und ungünstigere Bindungseinstellungen aufwiesen. Weitere Einflussfaktoren dieser Persönlichkeitsmerkmale im Leben eines Adoptierten müssten zukünftig identifiziert werden. Seelische Vorerkrankungen, wie beispielsweise eine Depression, könnten einen solchen Einflussfaktor darstellen. 20.6% der Adoptierten der vorliegenden Studie gaben an, seelisch erkrankt zu sein, darunter waren 12.1% depressiv, was zu zusätzlichen Rechnungen veranlasste. Bei diesen Berechnungen mit dem Vergleich von depressiven Adoptierten versus seelisch gesunden Adoptierten fiel auf, dass die depressive Gruppe niedrigere Werte auf Skalen des Selbstwertes und der Resilienz aufwies, sowie schlechtere Bindungseinstellungen hatte als die seelisch gesunde Gruppe. Depressive Adoptierte waren zusätzlich neurotischer und bewerteten ihre Elternhäuser als emotional kühler. Ebenso hatten sie mehr Ablehnung und Strafe durch die Mütter erfahren. Besonders hervorzuheben sind jedoch die Ergebnisse auf den Skalen der emotionalen Selbstwertschätzung und der Bindungseinstellung Angst. Hierbei lagen die Werte der depressiven adoptierten Gruppe deutlich außerhalb des Normbereichs und wiesen auf pathologisch veränderte Persönlichkeitsmerkmale hin. Depressive hatten somit deutlich schlechtere Einstellungen gegenüber sich selbst als Adoptierte, die nicht depressiv waren. Ebenso hatten sie eine sehr schlechte Selbstachtung und litten vermehrt unter Ängsten. Es bleibt also die Frage offen, inwiefern seelische Vorerkrankungen, die in der vorliegenden Studie zu einem hohen Prozentsatz vertreten waren, zu den schlechteren Ergebnissen bezüglich Selbstwert und Bindung Adoptierter im Vergleich zu Normstichproben beitragen. Es bleibt offen, ob Adoption alleine ein Risikofaktor für vermindertes Selbstbewusstsein und schlechte Bindungseinstellungen ist oder ob diese Ergebnisse nicht vielmehr durch andere Faktoren, wie seelische Erkrankungen, beeinflusst werden. Abschließend lässt sich feststellen, dass die Ehrlichkeit der Adoptiveltern und der offene Umgang mit dem Thema der Adoption entscheidend zur Bildung eines gesunden Selbstwertes und günstiger Bindungseinstellungen ihres Kindes beitragen. Ebenso sollten Adoptierte nicht lange in Unwissenheit über ihre Herkunft gelassen werden. Ein früher Zeitpunkt der Aufklärung über die eigene Adoption hat positiven Einfluss auf die Entwicklung des Selbstwertes, der Widerstandsfähigkeit und der Bindungseinstellung. Weiterhin ist zu sehen, dass die reine Kontaktmöglichkeit zu den leiblichen Eltern für die Entwicklung von Selbstwertgefühl, Resilienz und Bindung keine entscheidende Rolle zu spielen scheint. Eine offene Adoptionsform alleine, in der der Kontakt zwischen Adoptivfamilie und leiblichen Eltern von Anfang an aufrechterhalten bzw. zu einem späteren Zeitpunkt wieder aufgenommen wird, scheint für die Entwicklung des Adoptivkindesnicht die entscheidende Rolle zu spielen. Interessant bleibt die Frage nach dem Einfluss von Adoption als Risikofaktor für die Entwicklung von seelischen Erkrankungen und hierunter insbesondere Depression. Ein hoher Prozentsatz der Adoptierten dieser Studie gab an, seelisch erkrankt zu sein (20.6%), die häufigste genannte Diagnose darunter war die Depression (12.1%). Die Diagnosehäufigkeiten und Prädiktoren für die Entwicklung von Depressionen müssen zukünftig genauer untersucht werden. Da es sich bei der vorliegenden Studie um eine anonymisierte Fragebogenstudie ohne zusätzliche Führung von Interviews handelte, war es nicht möglich, Fragen zu Angaben der Probanden zu beantworten und Missverständnisse zu klären. Manches Ergebnis, wie die Angabe der Probanden, depressiv zu sein, oder die Untersuchung der Anzahl von Heimaufenthalten schien sehr fraglich. Zukünftige Studien sollten zusätzlich Interviews mit den Teilnehmern beinhalten, da sich so Missverständnisse am leichtesten klären lassen und Rückfragen möglich sind. Zur Erfassung von seelischen und körperlichen Erkrankungen können Testverfahren wie das Brief Symptom Inventory (Franke 2000) und die Hospital Anxiety and Depression Scale (Lingen, Buss, Snaith 2005) verwendet werden. Die Teilnehmerzahl der Studie belief sich auf 165 Probanden. Bei 75.8% der Probanden handelte es sich um weibliche Teilnehmerinnen. Da Studien bereits belegt haben, dass das Geschlecht einen entscheidenden Einfluss auf die Ergebnisse bei Untersuchungen zu Persönlichkeitsmerkmalen hat (Freeark, Rosenberg et al.2005), müsste man die Unterteilung in männliche und weibliche Probandengruppen vornehmen. Aufgrund der zu kleinen Teilnehmerzahl an Männern konnte diesin der vorliegenden Studie nicht geschehen. Ebenso betrifft dies die Einteilung der Probanden in die Altersgruppen bei Aufklärung über die Adoption. Hier konnte aufgrund der kleinen Teilnehmerzahl nur eine Unterteilung in ein Alter bis zum neunten Lebensjahr und ab dem zehnten Lebensjahr erfolgen. Bis zum neunten Lebensjahr durchläuft das Kind jedoch wichtige Entwicklungsschritte auf den Gebieten der Bindung zu Bezugspersonen, Entwicklung eines Selbstbildes und Integration in eine Gemeinschaft, in denen das Kind die Information über die eigene Adoption unterschiedlich verarbeitet. Anhand größerer Teilnehmerzahlen kann eine genauere Einteilung in verschiedene Altersklassen auch vor dem neunten Lebensjahr erfolgen und so der optimale Zeitpunkt der Aufklärung über die Adoption genauer festgelegt werden. Ebenso wichtig wäre eine weitere Einteilung in Inlands- vs. Auslandsadoptionen. Kinder, die aus dem Ausland adoptiert wurden, haben vermehrt Integrationsschwierigkeiten aufgrund ihres andersartigen Erscheinungsbildes, die sich auch auf die Entwicklung von Selbstbewusstsein auswirken können (von Borczyskowski, Hjern et al. 2006). Dies müsste man anhand der Unterteilung in Inlands –und Auslandsadoptionen genauer untersuchen. Die Probanden der vorliegenden Studie gaben an, ein emotional wärmeres und empathischeres Elternhaus gehabt zu haben als die Normstichprobe. Bei der Bewertung des Elternhauses handelt es sich jedoch lediglich um die Einschätzung der Teilnehmer, es ist eine subjektive Bewertung. Über die Qualität der Elternhäuser an sich kann man aus objektiver Sicht keine Aussage machen. Weitere Testverfahren zur Messung der Beziehungsqualitäten zwischen den Adoptierten und ihren Eltern und/oder der Persönlichkeitsmerkmale der Adoptiveltern müssten hierfür herangezogen werden. Ebenso wenig kann mit der Adult Attachment Scale das tatsächliche Bindungsverhalten gemessen werden. Vielmehr gibt dieses Testverfahren einen Hinweis auf die Bindungseinstellungen der Probanden. Zur Untersuchung von Bindungsverhalten liegen keine Testverfahren in Fragebogenform vor, dies müsste auf andere Weise erfolgen, beispielsweise mit Hilfe des Adult Attachment Interviews. Es lässt sich also feststellen, dass zur genaueren Untersuchung von Adoptierten eine größere Teilnehmerzahl erforderlich wird. Eine erweiterte Testbatterie und die Führung von Interviews können Missverständnisse und offene Fragen aus dem Weg räumen und ermöglichen so eine differenziertere Auswertung der Ergebnisse.
Das adaptive Immunsystem schützt den Menschen vor extra- wie auch intrakorporal auftretenden Pathogenen und Krebszellen. Die Funktionalität dieses Prozesses geht hierbei auf die Interaktion und Kooperation einer Vielzahl verschiedener Zelltypen des Körpers zurück und ist vorwiegend innerhalb der Lymphknoten lokalisiert. Ist auch nur ein Bestandteil dieses sensiblen Prozesses gestört, kann dies zu einem teilweisen oder vollständigen Verlust der immunologischen Fitness des Menschen führen. Daher war es das Ziel dieser Arbeit, solche Aberrationen des humanen Lymphknotengewebes umfassend digital-pathologisch zu detektieren und zu definieren.
Hierfür wurde zunächst eine digitale Gewebedatenbank etabliert. Diese basiert auf dem im Rahmen dieser Arbeit implementierten Content-Management-System Digital Tissue Management Suite. Weiterhin wurde die Software Feature analysis in tissue histomorphometry entwickelt, welche die Analyse von zweidimensionalen whole slide images ermöglicht. Hierbei werden Methoden aus dem Bereich Computer Vision und Graphentheorie eingesetzt, um morphologische und distributionale Eigenschaften der Zelltypen des Lymphknotens zu charakterisieren. Darüber hinaus enthält diese Software Plug-ins zur Visualisierung und statistischen Analyse der Daten.
Aufbauend auf der eigens implementierten, digitalen Infrastruktur, in Kombination mit der Software Imaris wurden zweidimensional und dreidimensional gescannte, reaktive und neoplastische Gewebeproben digital phänotypisiert. Hierbei konnten neue mechanische Barrieren zur Kompartimentalisierung der Keimzentren aufgeklärt werden. Weiterhin konnte der Erhalt des quantitativen Verhältnisses einzelner Zellpopulationen innerhalb der Keimzentren beschrieben werden. Ausgehend von den reaktiven Phänotypen des Lymphknotens, wurden pathophysiologische Aberrationen in verschiedenen lymphatischen Neoplasien untersucht. Hierbei konnte gezeigt werden, dass speziell die strukturelle Destruktion häufig mit einer morphologischen Veränderung der fibroblastischen Retikulumzellen einhergeht.
Neben strukturellen Veränderungen sind auch zytologische Veränderungen der Tumormikroumgebung zu verzeichnen. Eine besondere Rolle spielen hierbei sogenannte Tumor-assoziierte Makrophagen. Im Rahmen dieser Arbeit konnte gezeigt werden, dass speziell Makrophagen in der Tumormikroumgebung des diffus großzelligen B-Zell-Lymphoms und der chronisch lymphatischen Leukämie spezifische pathophysiologische Veränderungen aufzeigen. Auch konnte gezeigt werden, dass genetische Änderungen neoplastischer B-Zellen mit einer generellen Reduktion der CD20-Antigendichte einhergehen.
Zusammenfassend ermöglichten die Ergebnisse die Generierung eines umfassenden digital-pathologischen Profils des klassischen Hodgkin-Lymphoms. Hierbei konnten morphologische Veränderungen neoplastischer, CD30-positiver Hodgkin-Reed-Sternberg-Zellen validiert und beschrieben werden. Auch konnten pathologische Veränderungen des Konnektoms und der Tumormikroumgebung dieser Zellen parametrisiert und quantifiziert werden. Abschließend wurde unter Anwendung eines Random forest-Klassifikators die diagnostische Potenz digital-pathologischer Profile evaluiert und validiert.
Hallin and Mancini’s seminal work Comparing Media Systems: Three Models of Media and
Politics has generated great interest and enthusiasm among media scholars to advance comparative
studies by applying the four dimensions to analyze media performance in different countries. Media
scholars agree that the four variables suggested by the two authors, i.e. the structure of media
markets, political parallelism, role of the state, and professionalization of journalism, provide a
good theoretical framework for the analysis of relationship between political and media system.
Their models for comparing media systems are based on a ‘most similar’ strategy,
analysing media and journalism only in stable Western democracies (i.e. Western European and
North American nations), and the purpose of the research presented in this paper was to develop
the model to include other parts of the world as well.
The most recent attempts to integrate East Central European media systems into the Hallin
and Mancini model, the conclusion being that the East Central European media share most
similarities with the Polarized Pluralist model. This conclusion follows not only Hallin and
Mancini, but also Splichal. The researcher in his earlier works argued that the changes in post-
Soviet media systems could be best explained by referring to the concept of Italianization - the
media are under strong state control, the degree of mass media partisanship is strong, low level of
journalistic professionalism, commercialization.
In fact, out of the three models only two (the Liberal and the Democratic Corporatist
model) are models in any strict sense, whereas the third - Polarized Pluralism - is better defined
as the lack of a model: the Liberal and Democratic Corporatist model are both built on a
consensus around core values, whereas the key feature of the Polarized Pluralism model is that
there is no consensus and no core values. De Albuquerque introduced other variables that also
would be highly relevant to the comparative analysis of media systems, but that have no place in
the Hallin & Mancini framework, the most important one being whether the political system is
presidential or parliamentary. For example, it has been demonstrated that media in presidential systems are more likely to focus on individual politicians and the administrative aspects of
government, as well as acting as an intermediary between different branches of government, than
are media in parliamentary systems.
Scholars dealing with the East Central Europe (and elsewhere) are too interested in fitting
their respective nations to one of the three models, rather than focusing on the variables and on the
comparative dimension. The scholars focus on the variables and on the comparative dimension: it
is strucking that their conclusions are precisely that a strict modeling approach (i.e. trying to fit
any given nation into the three-system model) is not enough if we want to understand media
system differences properly.
Hallin and Mancini (2004: 305) write that “The Democratic Corporatist Model, we suspect,
will have particularly strong relevance for the analysis of those parts of Eastern and Central
Europe that share much of the same historical development, like Poland, Hungary, the Czech
Republic, and the Baltic States”. At the same time, however, they suspect that scholars working on
the East Central European media will find much that is relevant in their analysis of the
Mediterranean region.
The recent attempts integrate East Central European media systems into the Hallin and
Mancini model, the conclusion being that the East Central European media share most similarities
with the Polarized Pluralist model. This conclusion follows not only Hallin and Mancini, but also
Splichal. The researcher in his earlier works argued that the changes in post-Soviet media systems
could be best explaind by referring to the concept of Italianization - including the role of
clientelism, the strong role of the state, the role of the media as an instrument of political struggle,
and a low level of journalistic professionalism.
The Polarized Pluralist model all too often seems to be the default model – what is really
gained, analytically, by saying that post-Communist countries are all basically Polarized Pluralist
media system when they are different in many ways. This question needs further elaboration.
Instead of fitting the Italianization model into East Central Europe, scholars should start working on their own model, introducing other variables, that would allow them to investigate the
media in the region adequately.
Weltweit gibt es laut WHO ca. 58 Millionen Menschen mit einer chronischen Hepatitis-C-Virus (HCV) Infektion und jährlich stecken sich ca. 1,5 Millionen Menschen neu mit diesem Virus an (Stand 2019). Da die Folge einer chronischen Hepatitis-C-Virus Infektion eine potenziell tödlich verlaufende Leberzirrhose oder die Entwicklung eines Hepatozellulären Karzinoms sein können, ist eine frühe Diagnose und eine adäquate Therapie eine wichtige Aufgabe in der Medizin.
Die bisherige Therapie erfolgte mittels pegyliertem Interferon und Ribavirin und seit einigen Jahren auch interferonfrei mittels Direkter Antiviraler Agenzien (DAA). Vor allem beim älteren Therapieregime konnten viele Nebenwirkungen und häufiger auch ein Therapieversagen auftreten, sodass ein leicht zu gewinnender Biomarker nützlich wäre, der die Patienten mit Therapieversagen frühzeitig und im besten Fall sogar vor Therapiebeginn detektieren kann.
In der vorliegenden Arbeit wurden die Spiegel von extrazellulär im Blut zirkulierender, leberspezifischer microRNA miR-122 auf Eigenschaften als solche potenzielle Biomarker untersucht. Dazu wurden die Patientenseren von insgesamt 60 Patienten mit chronischer Hepatitis-C-Virus Infektion analysiert, die mittels pegyliertem Interferon und Ribavirin behandelt wurden. Vor, während und nach der Therapie wurden verschiedene Laborparameter sowie die miR 122 in den Patientenseren bestimmt. 20 dieser Patienten zeigten ein dauerhaftes Ansprechen auf die Therapie (sustained virological response = SVR), 20 zeigten nach einem initialen Therapieansprechen ein Rückfall der Erkrankung (Relapse) und 20 Patienten sprachen gar nicht auf die Therapie an (Non-Responder = NR).
Zunächst wurden die sogenannten Baseline-Charakteristika der Patienten vor Therapiebeginn untersucht. Dabei konnten wir jedoch keinen Unterschied zwischen den Patientengruppen hinsichtlich der Alanin-Aminotransferase (ALT) und Aspartat-Aminotransferase (AST), zwei Laborparameter zur Bestimmung einer Leberschädigung, sowie der HCV-RNA, ein Parameter zur Bestimmung der Viruslast bei Patienten mit einer HCV-Infektion, feststellen.
Auch die miR-122-Spiegel zeigten vor Therapiebeginn keinen signifikanten Unterschied zwischen den drei Patientengruppen. Daraus wurde geschlossen, dass man die miR-122 vor Therapiebeginn nicht als prognostischen Marker für einen Therapieerfolg verwenden kann.
Beim Vergleich der miR-122-Spiegel mit den Laborparametern konnte eine signifikante Korrelation zwischen der miR-122 und der ALT, AST und der Gamma-Glutamyl-Transferase (GGT) festgestellt werden. Die miR-122 scheint somit ähnlich wie die anderen Laborparameter eine Leberzellschädigung widerzuspiegeln.
Nach dem Therapiebeginn konnte bereits ab Woche 4 ein signifikanter Unterschied zwischen den SVR und Non-Respondern sowie zwischen den Relapsepatienten und den Non-Respondern festgestellt werden. Jedoch war der Unterschied zwischen den SVR und den Relapse-Patienten nicht signifikant, sodass man weiterhin keine Unterscheidung dieser beiden Patientengruppen machen konnte.
Auch die ALT- und HCV-RNA-Spiegel zeigten einen ähnlichen Verlauf. In den Gruppen der SVR und Relapse-Patienten zeigte sich im Laufe der Therapie ein Rückgang der Parameter wohingegen die Gruppe der Non-Responder keine signifikante Dynamik aufwies.
Zum Schluss wurden die miR-122-Spiegel 12 bzw. 24 Wochen nach Therapieende bestimmt, dem sogenannten Zeitpunkt des Follow-Up bei dem der Therapieerfolg laut Leitlinie mit Hilfe der HCV-RNA-Messung bestimmt wird. Dabei konnte ein signifikanter Unterschied zwischen den miR-122-Spiegeln bei den SVR-Patienten und den anderen beiden Patientengruppen festgestellt werden.
In Zusammenschau dieser Ergebnisse kann man sagen, dass die miR-122 gut geeignet ist um ähnlich wie die HCV-RNA den Therapieverlauf widerzuspiegeln. Als prognostischer Parameter bzw. Biomarker für ein Therapieansprechen ist sie jedoch nicht geeignet, da keine Unterscheidung zwischen den einzelnen Patientengruppen vor Therapiebeginn möglich ist und während der Therapie lediglich die Non-Responder und nicht die Relapse-Patienten detektiert werden können.
Analyse der Genauigkeit des neurochirurgischen Operationsroboters Robotic Surgery Assistant (ROSA)
(2020)
In der vorliegenden Arbeit sollte untersucht werden, ob der Roboter ROSA bei der Durchführung von intrakraniellen Biopsien oder Elektrodenimplantationen eine Alternative zur klassischen, rahmenbasierten Stereotaxie darstellt. Dazu sollte die mechanische und die Anwendungsgenauigkeit des Systems ermittelt werden. Zur Bestimmung der mechanischen Genauigkeit wurde eine experimentelle Phantomstudie durchgeführt. Hier wurden durch den Roboter wiederholt zehn Trajektorien an einem Stereotaxiephantom angefahren. Der Abstand der robotischen Nadel zum Zielpunkt im Phantom wurde anhand von Röntgenbildern bestimmt. Die Wiederholung des Versuchsaufbaus unter Variation der Planungsbildgebung erlaubte den Vergleich verschiedener Schichtdicken sowie zwischen low-dose und normal-dose Verfahren. Die Anwendungsgenauigkeit sollte durch die Analyse operativer Ergebnisse der ROSA erfasst werden. Dazu wurde anhand von postoperativen Bildern die Genauigkeit anhand des Abstands zwischen geplanter und tatsächlicher Lage von Stereoelektroenzephalographie-Elektroden ermittelt. Es wurden verschiedene Referenzierungstechniken, die der Orientierung des Roboters dienen und bei denen eine präoperative Planungsbildgebung (CT oder MRT) mit einem Abbild des OP-Gebietes (durch Oberflächenerkennung oder durch einen Stereotaxierahmen) referenziert wird, verglichen, nämlich CT-Laser; CT-Leksell-Rahmen und MRT-Laser. Die Ergebnisse wurden einer statistischen Analyse unterzogen. Dabei zeigte sich, dass der ROSA-Roboter eine sehr hohe mechanische Genauigkeit im Submillimeterbereich erreicht. Genauigkeitseinbußen bei einer größeren Schichtdicke der zur Planung verwendeten Computertomographie sind messbar, aber gering. Ein signifikanter Einfluss bei der Verwendung eines low-dose-Protokolls konnte nicht festgestellt werden. Dennoch zeigte sich, dass der entscheidende Teil der Ungenauigkeiten in der klinischen Anwendung entsteht und dabei insbesondere durch die Referenzierungstechnik bestimmt wird. Referenzierungen, die auf einer Computertomographie basierten, erwiesen sich als zufriedenstellend genau und als konkurrenzfähig zur konventionellen Methode. Der Unterschied zwischen dem rahmenbasierten und dem auf Oberflächenerkennung basierenden Verfahren war dabei so gering, dass letzteres sich angesichts seiner Vorteile in der Anwendung als besonders günstiges Verfahren hervortut. Im Gegensatz dazu stand das MRT-Laser-Verfahren, welches bei relativ hohen Abweichungen nur eingeschränkt anwendbar scheint und sich damit eher für Anwendungsbereiche mit geringeren Genauigkeitsanforderungen eignet, wie bspw. Biopsien. Weiterhin kann der Verlauf der Trajektorie an den höheren Sicherheitsabstand angepassten werden. Bei der Einordnung der ermittelten Genauigkeiten ist zu beachten, dass es viele weitere, von der Referenzierungs- und Bildgebungsmethode unabhängige Einflussfaktoren gibt. In dieser Arbeit war der Einfluss der erfassten externen Paramter zwar limitiert, bei anderen Autoren zeigte sich jedoch ein signifikanter Effekt. Dennoch deckt sich die Gesamtgenauigkeit mit den Ergebnissen anderer Arbeiten.
In Zusammenschau der Ergebnisse weist die vom ROSA-Assistenzsystem assistierte Stereotaxie eine verbesserte Prozessqualität auf, unter anderem durch die erhebliche Zeitersparnis, ggf. der Wegfall des Transports des narkotisierten Patienten, die Adaptionsmöglichkeiten der Prozessteilschritte an den Patienten, sowie eine hohe Nutzerfreundlichkeit. Entscheidend ist jedoch, dass es sich um ein sehr sicheres Verfahren handelt: Durch die hohe Genauigkeit wird das Operationsrisiko minimiert, gleichzeitig erlauben Laser-gestützte Registrierungsverfahren eine Reduktion der Strahlenexposition. Zur Konsolidierung der in dieser Arbeit gewonnenen Erkenntnisse sind weitere klinische Daten notwendig.
In dieser Arbeit wurden Interaktionen zwischen Tumorzellen und Fibroblasten und die Rolle von MMPs auf Tumorwachstum und Invasion untersucht. Die Studien erfolgten in dem in vitro Modell der organotypischen Zellkulturen, in dem eine Haut-ähnliche Situation rekonstruiert wird. Hierbei wachsen maligne Epithelzellen auf einer extrazellulären Matrix (Kollagen Typ I) in enger Nachbarschaft zu hierin eingebetteten Fibroblasten und bilden ein mehrschichtiges Epithel. Dabei sind Epithelien von malignen Keratinozyten durch ein Fehlen einer definierten Struktur und Polarität charakterisiert. Im HaCaT-Tumormodell konnte der essentielle Beitrag des Tumorstromas zur Tumorprogression nachgewiesen werden da eine Steigerung der Malignität von HaCaT-Tumorzellen bis hin zur Metastasierung nur durch Wachstum in der in vivo Umgebung der Nacktmaus nicht aber durch Selektion in vitro induzierbar war. In der vorliegenden Arbeit wurden humane Fibroblasten und ihre Interaktion mit den prämalignen HaCaT Zellen in vitro analysiert. Interessanterweise, kam es nur in der Anwesenheit von Fibroblasten zu einer Kollagengel-Degradierung. Diese Beobachtungen gingen mit einer Expressionsänderung von MMPs sowie von angiogenen Faktoren, wie VEGF und PDGF, einher. Ferner zeigte sich, dass in der OTK in der Abwesenheit von Fibroblasten MMP-2 geringer exprimiert wurde und vorwiegend in den oberen Zellschichten des Epithels zu detektieren war. Parallel dazu konnte in diesen Zellschichten eine gesteigerte Proliferationsaktivität nachgewiesen werden. In Anwesenheit von Fibroblasten jedoch wurde MMP-2 vorgefunden. Die Kollagengel-Degradierung in der Anwesenheit der Fibroblasten korrelierte auch mit einer verringerten TIMP-1/TIMP-2-Expression. Die geringe TIMP-2-Expression führt zu einem Anstieg von MMP-2, welches direkt den Prozess der Kollagengel-Degradierung in der OTK fördert. TIMPs spielen nicht nur in die Regulation der MMP Expression sondern auch in der anderer Wachstumsfaktoren, wie VEGF und PDGF, eine Rolle. Während wir in der OTK keinen Zusammenhang zwischen einer VEGF- und TIMP-Expression detektieren konnten, wurde PDGF in der OTK in der Abwesenheit der Fibroblasten stärker exprimiert. In Folge einer MMP-Inhibition mit einem MMPI (Ro28-2653) der selektiv MMP-2/MMP-9 hemmt, konnte die Kollagengel-Degradierung aufgehalten werden. Nach der Behandlung mit Ro28-2653 wurden die Expression der Proteine MMP-1/MMP-2 signifikant herrunterreguliert. Dagegen war eine Verringerung der MMP-9-Expression nur zu Beginn der Behandlung detektierbar. In der OTK wurde zusätzlich initial VEGF in Folge einer MMP-Inhibition herunterreguliert. Ab der dritten Woche war die VEGF-Expression in behandelten und unbehandelten Proben vergleichbar hoch. PDGF wurde zunächst herunterreguliert, später ab der zweiten Woche signifikant hochreguliert. PDGF ist in der Lage eine TIMP-1-Expression zu induzieren. In der OTK trifft dies für TIMP-1 und TIMP-2 zu. ECM und BM Degradierung sind eine der Vorraussetzungen für Gefäßsprossung. Es kam in vivo bei malignen HaCaT-ras-A-5RT3-Tumoren in Folge einer MMP-Inhibition (Ag3340) zu einer Induzierung der Gefäßreifung und der Zerstörung kleiner, unreifer Blutgefäße. Zusätzlich ließ sich mit MRT und Hochfrequenzsonographie eine Reduzierung der Tumorgröße; des relativen Blutvolumens und ein Anstieg des mittleren Gefäßdurchmessers bei therapierten Tieren detektieren. Dieser Anstieg des mittleren Gefäßdurchmessers, quantifiziert mittels „Vessel Size Imaging“, unterstützt die Annahme, dass eine MMP-Inhibition vorwiegend die kleinen unreifen Gefäße zerstört. Die großen und reifen Gefäße sind gegen eine anti-angiogene Therapie resistent. Immunhistologische Analysen verifizierten diese Ergebnisse. Zusammenfassend konnte gezeigt werden, dass Fibroblasten bei der Tumorinvasion von malignen Keratinozyten eine fundamentale Rolle spielen. Nur in der Anwesenheit der Fibroblasten war eine MMP-2-Expression nachweisbar Wahrscheinlich stimulieren Tumorzellen Fibroblasten - über parakrine Mechanismen - MMP-2 zu synthetisieren. In vivo spielen MMPs und TIMPs und Wachstumsfaktoren, wie VEGF und PDGF, eine wichtige Rolle beim Prozess der Angiogenese. Dies ließ sich mit nicht-invasiver Bildgebung bei HaCaT ras A 5RT3 Tumoren unter MMP-Inhibition anhand des Nachweises einer zunehmenden Gefäßreifung und des Rückgangs der kleinen, unreifen Gefäße zeigen.
Die Dissertation gliedert sich in zwei Teile – einen methodisch-wissenschaftstheoretischen bzw. biografisch-dogmenhistorischen und einen wirtschaftsethischen Bereich. Beide Abschnitte sind wechselseitig miteinander verzahnt. Im ersten Teil geht es vorwiegend um biografische und theoriegeschichtliche Fragestellungen. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Dabei wird eine Drei-Ebenen-Unterscheidung vorgenommen: Einflüsse lassen sich demnach nicht nur auf der biografischen, sondern gleichfalls auf der wissenschaftstheoretischen und sozialphilosophischen Ebene ausmachen. Dennoch ist Vorsicht geboten, denn der Einfluss der Phänomenologie auf das Werk Walter Euckens sollte nicht überbetont werden, in dem Sinne, dass man Eucken als angewandten Phänomenologen und die Husserlsche Phänomenologie als Metatheorie des Ordoliberalismus darstellt. Vielmehr ist von einem eklektischen Denkmuster in den Schriften Euckens auszugehen, das maßgeblich vom Werk seines Vaters beeinflusst wurde (d.i., Walter Eucken als Rudolf Euckenianer) – und dies sowohl im Bereich der Wissenschaftstheorie und Methodik als auch im Kontext des sozialphilosophischen Topos der Gesellschaftskrisis. Der zweite Aufsatz – An Ordoliberal Interpretation of Adam Smith – geht den Parallelen im Denken Adam Smiths und Euckens nach. Auffallend ist, dass Eucken Smith meist im Zusammenhang mit seiner Kritik am laissez faire- respektive Paläoliberalismus zitiert. Dabei ist seine Bezugnahme auf Smith von verzerrten Stereotypen geprägt – und dies obwohl es einige bemerkenswerte Parallelen nicht nur zwischen Eucken und Smith, sondern auch zwischen Smith und Kant gibt. Der Übergang vom sogenannten Paläo- bzw. klassischen Liberalismus hin zum Ordoliberalismus ist somit gradueller, nicht jedoch revolutionärer Art. Im Mittelpunkt des zweiten Hauptteils stehen wirtschaftsethische Themenstellungen, die eine große Affinität zum Forschungsprogramm des Exzellenzclusters 'Die Herausbildung normativer Ordnungen' aufweisen. Dabei geht es wesentlich um die Herausarbeitung des ethischen Gehalts und der stark normativen Komponenten des Ordoliberalismus. Die ersten Essays im zweiten Teilbereich der Dissertation beziehen sich primär auf Eucken und die Freiburger Schule. Die letzten beiden Aufsätze jedoch sind bestrebt, über Eucken hinauszugehen und den Ordoliberalismus i.e.S. um den Soziologischen Neoliberalismus bzw. den Wirtschafts- und Sozialhumanismus Rüstows und Röpkes zu erweitern. Die Aufsätze 'Über die normativen Implikationen des Ordoliberalismus für die moderne Wirtschaftsethik' und 'On the Economic Ethics of Walter Eucken' geben dem Leser einen Überblick über die Wirtschaftsethik der Freiburger Schule im Allgemeinen und Walter Euckens im Besonderen. Dabei wird insbesondere das ordoliberale Staats- sowie das (in der kantischen Tradition stehende) Freiheitsverständnis herausgearbeitet und der Versuch unternommen, Eucken für die moderne Wirtschaftsethik anschlussfähig zu machen. Als Ergebnis wird Euckens Ordoliberalismus, dem es um ein ausgewogenes Verhältnis von Eigeninteresse und Gemeinwohl und die Realisierung des Ideals einer funktionsfähigen und menschenwürdigen Gesellschaftsordnung geht, im Spannungsfeld von Homannscher Moralökonomik und Ulrichs Integrativer Wirtschaftsethik porträtiert. Ergänzt wird dieser Einblick in die ordoliberale Wirtschaftsethik durch das Kapitel 'Von Hayek and Ordoliberalism on Justice', das die Gerechtigkeitskonzeptionen Euckens, Rüstows und Röpkes mit derjenigen von von Hayek kontrastiert. Derart werden u.a. die Unterschiede zwischen Ordoliberalismus und Evolutorischem Liberalismus deutlich. Das Kapitel 'Individual versus Regulatory Ethics: An Economic-Ethical and Theoretical-Historical Analysis of German Neoliberalism' untersucht im Anschluss an Foucaults ‚Ambiguitätsthese‘ das Verhältnis von Individual- und Ordnungsethik und kommt zu dem Ergebnis, dass es die Besonderheit des Ordoliberalismus ist, eine weitreichende, integrative Einheit beider Ebenen vorzunehmen. Aufbauend auf der Unterscheidung von Individual- und Ordnungsethik werden im vorletzten Kapitel – 'Ordoliberalism and the Evolution of Norms' – schließlich die divergierenden Normengenese-Prozesse im Ordoliberalismus einer Analyse unterzogen. Das verblüffende Resultat lautet, dass im Ordoliberalismus zwei unterschiedliche Arten der Entstehung von Normen nebeneinander existieren – eine kulturell-evolutionäre und eine elitär-expertokratische. Mithilfe dieser Unterscheidung ist eine weitere Differenzierung zwischen von Hayek und dem Ordoliberalismus möglich. Das letzte Kapitel – Beyond Ordoliberalism? – fasst zentrale Kritikpunkte am Ordoliberalismus noch einmal zusammen und geht der Frage nach, inwiefern es realistisch erscheint, auf eine Renaissance eines aktualisierten Ordoliberalismus zu hoffen?
Die Dissertation gliedert sich in zwei Teile – einen methodisch-wissenschaftstheoretischen bzw. biografisch-dogmenhistorischen und einen wirtschaftsethischen Bereich. Beide Abschnitte sind wechselseitig miteinander verzahnt. Im ersten Teil geht es vorwiegend um biografische und theoriegeschichtliche Fragestellungen. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Der erste Aufsatz – On the Affiliation of Phenomenology and Ordoliberalism – beschäftigt sich mit dem wechselseitigen Einfluss von Husserl, Rudolf und Walter Eucken. Dabei wird eine Drei-Ebenen-Unterscheidung vorgenommen: Einflüsse lassen sich demnach nicht nur auf der biografischen, sondern gleichfalls auf der wissenschaftstheoretischen und sozialphilosophischen Ebene ausmachen. Dennoch ist Vorsicht geboten, denn der Einfluss der Phänomenologie auf das Werk Walter Euckens sollte nicht überbetont werden, in dem Sinne, dass man Eucken als angewandten Phänomenologen und die Husserlsche Phänomenologie als Metatheorie des Ordoliberalismus darstellt. Vielmehr ist von einem eklektischen Denkmuster in den Schriften Euckens auszugehen, das maßgeblich vom Werk seines Vaters beeinflusst wurde (d.i., Walter Eucken als Rudolf Euckenianer) – und dies sowohl im Bereich der Wissenschaftstheorie und Methodik als auch im Kontext des sozialphilosophischen Topos der Gesellschaftskrisis. Der zweite Aufsatz – An Ordoliberal Interpretation of Adam Smith – geht den Parallelen im Denken Adam Smiths und Euckens nach. Auffallend ist, dass Eucken Smith meist im Zusammenhang mit seiner Kritik am laissez faire- respektive Paläoliberalismus zitiert. Dabei ist seine Bezugnahme auf Smith von verzerrten Stereotypen geprägt – und dies obwohl es einige bemerkenswerte Parallelen nicht nur zwischen Eucken und Smith, sondern auch zwischen Smith und Kant gibt. Der Übergang vom sogenannten Paläo- bzw. klassischen Liberalismus hin zum Ordoliberalismus ist somit gradueller, nicht jedoch revolutionärer Art. Im Mittelpunkt des zweiten Hauptteils stehen wirtschaftsethische Themenstellungen, die eine große Affinität zum Forschungsprogramm des Exzellenzclusters 'Die Herausbildung normativer Ordnungen' aufweisen. Dabei geht es wesentlich um die Herausarbeitung des ethischen Gehalts und der stark normativen Komponenten des Ordoliberalismus. Die ersten Essays im zweiten Teilbereich der Dissertation beziehen sich primär auf Eucken und die Freiburger Schule. Die letzten beiden Aufsätze jedoch sind bestrebt, über Eucken hinauszugehen und den Ordoliberalismus i.e.S. um den Soziologischen Neoliberalismus bzw. den Wirtschafts- und Sozialhumanismus Rüstows und Röpkes zu erweitern. Die Aufsätze 'Über die normativen Implikationen des Ordoliberalismus für die moderne Wirtschaftsethik' und 'On the Economic Ethics of Walter Eucken' geben dem Leser einen Überblick über die Wirtschaftsethik der Freiburger Schule im Allgemeinen und Walter Euckens im Besonderen. Dabei wird insbesondere das ordoliberale Staats- sowie das (in der kantischen Tradition stehende) Freiheitsverständnis herausgearbeitet und der Versuch unternommen, Eucken für die moderne Wirtschaftsethik anschlussfähig zu machen. Als Ergebnis wird Euckens Ordoliberalismus, dem es um ein ausgewogenes Verhältnis von Eigeninteresse und Gemeinwohl und die Realisierung des Ideals einer funktionsfähigen und menschenwürdigen Gesellschaftsordnung geht, im Spannungsfeld von Homannscher Moralökonomik und Ulrichs Integrativer Wirtschaftsethik porträtiert. Ergänzt wird dieser Einblick in die ordoliberale Wirtschaftsethik durch das Kapitel 'Von Hayek and Ordoliberalism on Justice', das die Gerechtigkeitskonzeptionen Euckens, Rüstows und Röpkes mit derjenigen von von Hayek kontrastiert. Derart werden u.a. die Unterschiede zwischen Ordoliberalismus und Evolutorischem Liberalismus deutlich. Das Kapitel 'Individual versus Regulatory Ethics: An Economic-Ethical and Theoretical-Historical Analysis of German Neoliberalism' untersucht im Anschluss an Foucaults ‚Ambiguitätsthese‘ das Verhältnis von Individual- und Ordnungsethik und kommt zu dem Ergebnis, dass es die Besonderheit des Ordoliberalismus ist, eine weitreichende, integrative Einheit beider Ebenen vorzunehmen. Aufbauend auf der Unterscheidung von Individual- und Ordnungsethik werden im vorletzten Kapitel – 'Ordoliberalism and the Evolution of Norms' – schließlich die divergierenden Normengenese-Prozesse im Ordoliberalismus einer Analyse unterzogen. Das verblüffende Resultat lautet, dass im Ordoliberalismus zwei unterschiedliche Arten der Entstehung von Normen nebeneinander existieren – eine kulturell-evolutionäre und eine elitär-expertokratische. Mithilfe dieser Unterscheidung ist eine weitere Differenzierung zwischen von Hayek und dem Ordoliberalismus möglich. Das letzte Kapitel – Beyond Ordoliberalism? – fasst zentrale Kritikpunkte am Ordoliberalismus noch einmal zusammen und geht der Frage nach, inwiefern es realistisch erscheint, auf eine Renaissance eines aktualisierten Ordoliberalismus zu hoffen?
Hintergrund: Das Monitoring von unfraktioniertem Heparin (UFH) bei extrakorporaler Zirkulation (EKZ) erfolgt standardmäßig mit Phospholipid-abhängigen Gerinnungstests wie „Activated Clotting Time“ [ACT, (sec)] bzw. „aktivierte partielle Prothrombinzeit“ [aPTT, (sec)]. Durch die im Rahmen von Autoimmunerkrankungen wie dem Antiphospholipid-Syndrom (APLS) auftretenden Antiphospholipid-Antikörper (aPL) ist die Aussagekraft dieser Tests bei solchen Patienten durch eine Verlängerung der Gerinnungszeit deutlich eingeschränkt. Die Wirkung von UFH kann auch mit der photometrischen Messung der aXa-Aktivität bestimmt werden. Ziel der vorliegenden Studie war es zu erfassen, ob die aXa-Aktivitiät mit der ACT korreliert und ob es Cut-off-Werte gibt, die bei der Steuerung der Antikoagulation von kardiochirurgischen Patienten z.B. mit Antiphospholipid-Antikörpern während EKZ hilfreich sein können.
Methodik: Nach einem positiven Ethikvotum wurden in diese prospektive Studie Patienten eingeschlossen, die sich einem erstmaligen elektiv geplanten kardiochirurgischen Eingriff unterzogen. Ausschlusskriterien waren Alter < 18 Jahren, bekanntes Antiphospholipidsyndrom, bekannte Heparin-induzierte Thrombozytopenie und Schwangerschaft. Die ACT-gesteuerte Antikoagulation mit UFH (ACT > 400 sec während EKZ) und dessen Reversierung mit Protamin (ACT ≤ 100 sec) wurden auf der Grundlage klinikinterner Standards durchgeführt. Für jeden perioperativ analysierten ACT-Wert (prä-, intra- und postoperativ) wurde die korrespondierende aXa-Aktivität erfasst. Abhängig von EKZ-Dauer ergaben sich bis zu 14 Messzeitpunkte mit insgesamt 144 Messungen. Die statistische Auswertung umfasste u.a. Spearman Rangkorrelation und die Receiver Operative Characteristic (ROC)-Kurve.
Ergebnisse: Es wurden die Daten von n = 15 Patienten in dieser Studie ausgewertet. Das Hauptergebnis zeigte eine hochsignifikante lineare Korrelation (r = 0.771, p < 0.0001) zwischen den Ergebnissen der ACT und der jeweils korrespondierenden aXa-Aktivität. Der optimale Cut-off-Wert der aXa-Aktivität zur Indikation einer ACT > 400 sec betrug 1.135 IU/ml (Fehlklassifikationsrate: 9.4%). Die Fläche unter der ROC betrug 0.899. Es wurde ein optimaler Cut-off-Wert von 0.55 IU/ml (Fehlerklassifikation: 13.3%, AUC: 0.867) analysiert, der eine ACT von ≤ 100 sec vor der Gabe von UFH und nach der Gabe von Protamin indiziert.
Zusammenfassung: Die aXa-Aktivität korreliert mit der ACT und kann für das Monitoring der Antikoagulation mit UFH während EKZ geeignet sein. Die im Rahmen dieser Studie ermittelten aXa-Cut-off-Werte können dazu beitragen, die Antikoagulation mittels UFH zu steuern, wenn die Messwerte von aPTT und ACT nicht aussagekräftig sind
Die HIV-Infizierung von Zellkulturen in vitro ist essentiell für das Verstehen der Kinetik der Virusreplikation, für die Aufdeckung von Resistenzentwicklungen gegenüber antiretroviraler Medikamente und für die Entwicklung neuer antiretroviraler Therapiestrategien. Voraussetzung hierfür ist ein geeignetes Monitoring der HIV-Infektion von in vitro infizierten Zellen. Die vorliegende Arbeit beschäftigt sich mit dem Monitoring der HIV-Replikation von in vitro infizierten Zellen mittels der Real-Time TaqMan™ PCR. Die Ergebnisse der Real-Time TaqMan™ PCR wurden mit denen eines p24 ELISAs verglichen. Der p24 ELISA diente als etablierte Standardmethode zum Monitoring einer in vitro HIV-Infektion. HUT 78-Zellen wurden in vitro mit vier unterschiedlichen HIV-1 IIIb Infektionsdosen (MOI 0,05; MOI 0,01; MOI 0,002; MOI 0,0005) infiziert. Mittels der Real-Time TaqMan™ PCR wurde die HIV-1 gag cDNA quantifiziert. Mittels ELISA erfolgte die Quantifizierung des HIV-p24. Zusätzlich dazu wurde die Anzahl an proviralen HIV-1 Transkripten in den Zellkulturen mittels der TaqMan™ PCR quantifiziert. Die Quantifizierung der HIV-1 gag cDNA und des p24 ergaben nahezu identische Kurvenverläufe der Infektionskinetiken. Beide Nachweismethoden zeigten vergleichbare Daten bezüglich des exponentiellen Ansteigens und der sich daran anschließenden Plateauphase der HIV-Replikation. Die Sensitivität beider Nachweismethoden war ebenfalls vergleichbar. Ein großer Unterschied lag in den Messbereichen beider Methoden. Bei der Real-Time TaqMan™ PCR konnte eine Linearität über 7 log-Stufen
demonstriert werden. Dies hatte den Vorteil, dass die Zellkulturproben vor der Quantifizierung der HIV-1 gag cDNA nicht verdünnt werden mussten. Im Gegensatz dazu war der Messbereich des HIV-p24 ELISAs sehr eng und erforderte in den meisten Fällen eine Verdünnung der Messproben. Bezüglich des Arbeitsaufwandes und der aufkommenden Kosten ergaben sich für die Quantifizierung der HIV-1 gag cDNA mittels der Real-Time TaqMan ™ und für die Quantifizierung des p24 mittels ELISA nahezu identische Werte. Der Verlauf der Werte an proviralen HIV-1 Transkripten ähnelt dem der HIV-1 gag cDNA Kinetik. Mittels der Quantifizierung der proviralen HIV-1 Kopien kann jedoch keine Aussage über die HIV-Replikation getroffen werden. Abschließend ist zu sagen, dass die Real-Time TaqMan™ PCR eine zuverlässige und sensitive Methode ist, eine HIV-1 Replikation von in vitro infizierten Zellen zu quantifizieren und den Replikationsverlauf zu beschreiben. Die Real-Time TaqMan™ PCR stellt eine alternative Methode zum HIV-p24 ELISA dar, um eine in vitro HIV-Replikation zu dokumentieren.
Das Hauptziel dieser Dissertation lag in der Verbesserung einzelner Schritte im Prozess der automatischen Proteinstrukturbestimmung mittels Kernmagnetischer Resonanz (NMR). Dieser Prozess besteht aus einer Reihe von sequenziellen Schritten, welche zum Teil bereits erfolgreich automatisiert wurden. CYANA ist ein Programmpaket, welches routinemäßig zur automatischen Zuordnung der chemischen Verschiebungen, der Nuclear Overhauser Enhancement (NOE) Signalen und der Strukturrechnung von Proteinen verwendet wird. Einer der Schritte, der noch nicht erfolgreich automatisiert wurde, stellt die Signalidentifizierung von NMR Spektren dar. Dieser Schritt ist besonders wichtig, da Listen von NMR-Signalen Grundlage aller Folgeschritte sind. Fehler in den Signallisten pflanzen sich in allen Folgeschritten der Datenauswertung fort und können am Ende in falschen Strukturen resultieren. Daher war ein Ziel dieser Arbeit, einen robusten und verlässlichen Algorithmus zur Signalidentifizierung von NMR Spektren in CYANA zu implementieren. Dieser Algorithmus sollte mit dem in FLYA implementierten Ansatz zur automatischen Resonanzzuordnung, der automatischen NOE-Zuordnung und der Strukturrechnung mit CYANA kombiniert werden. Der in CYANA implementierte CYPICK Algorithmus ahmt den von Hand durchgeführten Ansatz nach. Bei der manuellen Methode schaut sich der Wissenschaftler zweidimensionale Konturliniendarstellungen der NMR Spektren an und entscheidet anhand verschiedener Geomtrie- und Ähnlichkeitskriterien, ob es sich um ein Signal des Proteins oder um einen Artefakt handelt. Proteinsignale sind ähnlich zu konzentrischen Ellipsen und erfüllen bestimmte geometrische Kriterien, wie zum Beispiel ungefähr kreisförmiges Aussehen nach entsprechender Skalierung der spektralen Achsen und gänzlich konvexe Formen, die Artefakte nicht aufzeigen. CYPICK bewertet die Konturlinien lokaler Extrema nach diesen Bedingungen und entscheidet anhand dieser, ob es sich um ein echtes Signal handelt oder nicht. Das zweite Ziel dieser Arbeit war es ein Maß zur Quantifizierung der Information von strukturellen NMR Distanzeinschränkungen zu entwickeln. Der sogenannte Informationsgehalt (I) ist vergleichbar mit der Auflösung in der Röntgenkristallographie. Ein weiteres Projekt dieser Dissertation beschäftigte sich mit der strukturbasierten Medikamentenentwicklung (SBDD). SBDD wird meist von der Röntgenkristallographie durchgeführt. NMR hat jedoch einige Vorteile gegenüber der Röntgenkristallographie, welche interessant für SBDD sind. Daher wurden Strategien entwickelt, die NMR für SBDD zugänglicher machen sollen.
In der vorliegenden Arbeit wird das Auslesekonzept der Driftkammern untersucht und seine Integration in das HADES Datenaufnahmesystem beschrieben. Bedingt durch das mehrstufige Triggersystem und die hohen Anforderungen an die Geschwindigkeit des Systems wurden Methoden zur Datenreduktion entwickelt. Dadurch ist es möglich, die Daten von allen 27 000 Kanälen innerhalb von 10 µs nach dem Trigger auszulesen. Die Daten werden innerhalb von ungefähr 40 ns nach dem Signal der zweiten Triggerstufe weitertransportiert. Im Rahmen der Untersuchungen zur Überwachung der Driftkammerdaten, die im zweiten Teil der Arbeit beschrieben werden, wurde mit der verwendeten Methode zur Bestimmung der intrinsischen Auflösung eine deutliche Verschlechterung Auflösung der Kammern festgestellt, von 120 µm im November 2001 auf über 200 µm im September 2003. Als Ursache hierfür wurde zum einen die geänderte Kalibrationsmethode ausgemacht, die die Laufzeiten der Signale nicht mehr berücksichtigt, zum anderen eine Änderung der Driftgeschwindigkeit aufgrund einer nicht optimalen Hochspannung. Die Methode zur Bestimmung des physikalischen Zentrums der Kammern erlaubt eine Aussage über die Position der Kammern relativ zur Sollposition. Die dabei gefundenen Verschiebungen entlang der z - Achse stimmen für einen Teil der Sektoren mit den im Rahmen des Alignments ermittelten Werten für die Verschiebung des Targets überein. Für die anderen Sektoren ergeben sich zusätzlicher Verschiebungen um 2 bis 6 cm. Das Di - Leptonen - Spektrometer HADES (High Acceptance Di -Elektron-Spektrometer) am Schwerionensynchrotron der Gesellschaft für Schwerionenforschung (Darmstadt) beginnt nun mit detaillierten Studien leptonischer Zerfälle von Vektormesonen in Kern - Kern - Stößen mit Projektilenergien von 1 bis 2 GeV / Nukleon. Dabei liegt der Schwerpunkt auf der Untersuchung von Zerfällen, die in der Phase hoher Dichte (ungefähr 3 · p..0) und hoher Temperatur stattfinden. Es wird erwartet, daß sich aus der dabei zu beobachtenden Massenverteilung der unterhalb der Schwelle produzierten leichten Vektormesonen r, o und ph ein Hinweis auf die partielle Wiederherstellung der im Vakuum gebrochenen chiralen Symmetrie ergibt.
Die Objekterkennung spielt für die menschliche Wahrnehmung eine zentrale Rolle. Hierzu nutzen wir das visuelle System in ähnlichem Maße wie den Tastsinn zur Exploration unserer Umwelt. In Kombination beider Sinne gelingt es uns unser Umfeld adäquat wahrzunehmen. Um postulierte Interaktionen zwischen visuellem und haptischem System aufzudecken und näher zu untersuchen, bedienten wir uns der Methode der funktionellen Magnetresonanztomographie.
Vorangehende funktionell bildgebende Studien über visuo-haptische zerebrale Informationsverarbeitung beschrieben den lateralen okzipi-talen taktil-visuellen Kortex (LOtv) und den intraparietalen Sulcus (IPS) als Hauptkandidaten für visuo-haptische Integration (Amedi et al., 2005; Sathian, 2005). Die meisten Studien betrachteten jedoch alleinig Schnittmengen aus Ergebnissen nach unimodaler Aktivierung. Um nun strengere statistische Kriterien für das Auffinden visuo-haptischer Integrationsareale zu testen (Beauchamp, 2005; Laurienti et al., 2005), suchten wir nach Regionen, welche durch direkte bimodale Stimulation stärker aktiviert werden, als nach Darbietung unimodaler Reize. Ziel dieser Arbeit war es, in Anlehnung an vorbestehende Literatur unter Zuhilfenahme strengerer statistischer Kriterien und mittels abstrakten Stimulations-Materials nach Integrationseffekten infolge simultaner visuo-haptischer Stimulation im menschlichen Gehirn zu suchen. Neurophysiologische Grundlage dieses Vorhabens ist dabei die Annahme, dass neuronale Gruppen spezifische Funktionen erfüllen und deren Aktivität über das sogenannte „Blood Oxygen Level Dependend-Signal“ (BOLD-Signal) mittels fMRT sichtbar gemacht werden kann.
Sechzehn gesunde Probanden partizipierten an der vorliegenden Studie. Während des Experiments kamen Schwarz-weiß-Fotografien und haptisch zu explorierende Figuren wahlweise von Tieren oder abstrakten Objekten zum Einsatz. Diese wurden dem jeweiligen Probanden teils als Einzelreiz (rein visuell/rein haptisch), teils simultan als visuo-haptische Reize während des fMRT-Messvorgangs dargeboten. Diese visuo-haptische Objektdarbietung führte zu einer signifikanten Aktivierung verschiedener kortikaler Gehirnregionen. Im Rahmen unseres Experiments konnten hauptsächlich drei bilaterale Regionen identifiziert werden, welche einen visuo-haptischen Integrationseffekt für das verwendete Stimulusmaterial zeigten: LOtv, IPS und das anteriore Cerebellum. Interessanterweise zeigte das rechtslaterale Cerebellum den robustesten visuo-haptischen Effekt, der weder vom Stimulusmaterial (Tiere/Fribbles), noch von der Kongruenz der dargebotenen Reize abzuhängen schien.
Aufgrund der Beobachtung, dass selbst isolierte motorische Beanspruchung Aktivationssignale im Gehirn auslösen kann, wurde ein zweites Studienprotokoll zum Ausschluss motorischer Aktivität als alleinige Komponente der Signalantwort entwickelt und eine zusätzliche rein motorische Kontrollbedingung eingeführt. Im Folgenden ließen sich die im Hauptexperiment identifizierten Regionen auch unter dieser zusätzlichen Bedingung abbilden. Mit unserem Studiendesign gelang es, die in der Literatur als multisensorisch vorbeschriebenen Regionen erneut nachzuweisen. Zusätzlich deuten unsere Ergebnisse darauf hin, dass es cerebelläre bimodal integrierende Areale gibt, welche auch in Abwesenheit zusätzlicher Aufgabenstellungen eine wichtige Rolle in visuo-haptischen Verarbeitungsprozessen spielen. Es bleibt jedoch abzuwarten, ob diese Regionen zukünftig endgültig als multisensorisch einzustufen sind.
The Dodd Frank Act of 2010 (DFA) was the legislative response by the US Government to the Global Financial Crisis of 2007. DFA’s rescission of Rule 436 (g) of the Securities Act of 1933 - the exemption from liability clause - was the response to the post-crisis perception that credit rating agencies were insufficiently constrained by reputational risk considerations and consistently failed to provide high quality and accurate credit ratings as a consequence of the immunity they enjoyed and the regulatory reliance placed on ratings, as well as the conflicts of interest that they faced. This paper investigates whether the market failure event that occurred in the Asset Backed Securities market immediately after DFA was signed into law on July 21, 2010 was due to real economic concerns held by rating agencies about operating under a liability regime or whether it was merely an act of brinkmanship on the part of the rating agencies. The paper also predominantly examines US case law to identify the dilution of the freedom of speech defence in state courts, the conflict of interest issues and the legal challenges faced by plaintiffs when bringing a lawsuit against credit rating agencies, and proposes a novel co-pay and capped liability model to address the concerns of both credit rating agencies and investors.
Diese Arbeit beschreibt wie mit physikalischen Methoden die Glukosekonzentration gemessen werden kann. Die Infrarot-Spektroskopie bietet eine Möglichkeit da die Energie der meisten Molekülschwingungen Photonenenergien im infraroten Spektralbereich entspricht. Hier zeigen Glukosemoleküle charakteristische Absorptionsspektren, die mit spektroskopischen Methoden gemessen werden. Um nicht invasiv zu messen, wurde eine photoakustische Messmethode gewählt. Die Grundidee ist, dass die durch Licht angeregten Moleküle ihre Anregungsenergie teilweise in Form von Wärme abgeben. Da die anregende Strahlung intensitätsmoduliert ist, wird auch die Wärmeentwicklung periodisch verlaufen wodurch periodische Volumenänderungen hervorgerufen werden, die eine Druckwelle erzeugen, die sich durch empfindliche Mikrofone oder Schallwandler erfassen lässt. So kann im MIR auf Grund der hohen Spezifizität, der Glukosegehalt mit sehr hoher Genauigkeit bestimmt werden. Die Wellenlänge der Glukoseabsorptionsbanden im MIR Bereich sind im Wesentlichen gekoppelte C=O Streck- und O–H Biegeschwingungen. Im MIR-Bereich zeigen Spektren zwischen 8,3µm bis 11,1µm fünf glukoserelevanten Banden. Der photoakustische Effekt wird durch die Rosencwaig-Gersho Theorie beschrieben. Die Absorption des Lichtes in der Probe bewirkt eine Temperaturerhöhung, die als Wärme an Umgebung abgegeben wird. Da das eingestrahlte Licht gepulst ist, wird auch die Wärme periodisch abgegeben. Durch die Absorption eines Laserpulses in der Haut entsteht ein Temperaturgradient, die abhängig vom Absorptionskoeffizienten und der Glukosekonzentration ist. Der führt zu einer Diffusion von Wärme im Absorptionsvolumen. Die Hautoberfläche und damit eine dünne Luftschicht über der Hautoberfläche werden durch die Diffusionswärme periodisch mit der Modulationsfrequenz der Laser aufgeheizt, was als Druckschwankungen in Messkammer mit Mikrofon detektiert wird. Im Mitteinfrarot geben Quantenkaskadenlaser die beste Lichtquelle, wegen ihre gute Strahlqualität und hohe optische Leistung. Die verwendete photoakustische(PA) Resonanzzelle ist nach dem Prinzip des Helmholtz-Resonators konzipiert. Der Vorteil des Verstärkungsverhaltens einer resonanten PA-Zelle kann unter Umständen durch Verwendung Volumenreduzierten und mit empfindlichen Mikrofonen ausgestatteten nicht-resonanten PA-Zelle erreicht werde. Zum Erfassung der PA Signale wird eine Kombination aus einen Analog-Digital Wandlerkarte verwendet, die eine gemeinsame Zeitbasis mit der synchronen Lasersteuerung und der Datenerfassung liefert und phasenechte Fourieranalyse der photoakustischen Signale ermöglicht. Es wurde ein Modellsystem entwickelt um photoakustischen Glukosemessungen in vitro zu testen. Dieses „Phantommodell“ besteht aus einer dünnen Polymermembran befestigt in eine Gefäß von nur paar ml Volumen die mit verschiedenen Glukosekonzentrationen gefüllt wurde. Die modulierte Laserstrahlung passiert die Messzelle und dringt durch die Folie in die wässerige Glukoselösung ein. Das Folienmaterial und Dicke wurde so gewählt, dass keineAbsorption im verwendeten MIR-Bereich entsteht. Als Lösung für die jeweiligen Glukosekonzentrationen wurde ein Wasser-Albumin Gemisch verwendet mit einen 10%igen Albuminanteil, die verwendet wurde, um den Proteingehalt der Haut zu imitieren und zu zeigen, dass Eiweiß keinen Störeinfluss im Glukosefingerprintbereich hat. Messungen wurden bei steigenden und fallenden Glukosekonzentration durchgeführt damit gezeigt könnte, dass das Messsignal in der PA- Zelle nicht von der Lufterwärmung in der Zelle stammt, sondern vom PA-Signale der Glukose. Die Glukoseschwankungen in der extrazellulären Flüssigkeit der Epidermis spiegeln die Glukoseschwankungen im Blut gut wider, bei einer Messung am Arm entsteht eine Verzögerung von paar Minuten. Im Daumenballenbereich findet aufgrund der guten Durchblutung ein schneller Austausch der Glukosekonzentration der von uns gemessenen interstitiellen Flüssigkeit mit der Blutzuckerkonzentration statt. Deshalb wurden die in-vivo Messungen am Daumenballen durchgeführt. Das Stratum spinosum ist für uns von Bedeutung, da dies das interstitielle Wasser enthält, in dem der Glukosegehalt mit dem Glukosegehalt im Blut gut übereinstimmt. Die photoakustische Messmethode wird nicht-invasiv durchgeführt. Probanden wird Zucker verabreichet und danach in Abständen von 5 Minuten der Blutzucker konventionell bestimmt und gleichzeitig mittels der photoakustischen Messung am Daumenballen durchgeführt. Mit diesen Daten kann die Korrelation zwischen beiden Methoden bestimmt werden. In vielen in vivo Messreihen zeigen sich bereits in direkter Korrelation zu invasiv genommenen Blutzuckerwerten Korrelationskoeffizienten bis zu R=0,8 und eine damit deutliche Evidenz für einen glukoserelevanten Effekt. Trotz der versprechenden Ergebnisse wird deutlich, dass weitere Entwicklungen notwendig sind, damit das System zu einer direkten Konkurrenz zu der vorhandenen invasiven Meßsystemen werden kann.
Heme-copper oxidases (HCOs) are the terminal enzymes of the aerobic respiratory chain in the inner mitochondrial membrane or the plasma membrane in many prokaryotes. These multi-subunit membrane protein complexes catalyze the reduction of oxygen to water, coupling this exothermic reaction to the establishment of an electrochemical proton gradient across the membrane in which they are embedded. The energy stored in the electrochemical proton gradient is used e.g. by the FOF1-ATP synthase to generate ATP from ADP and inorganic phosphate. The superfamily of HCOs is phylogenetically classified into three major families: A, B and C. The A-family HCOs, represented by the well-studied aa3-type cytochrome c oxidases (aa3-CcOs), are found in mitochondria and many bacteria. The B-family of HCOs contains a number of bacterial and archaeal oxidases. The C-family comprises only the cbb3-type cytochrome c oxidase (cbb3-CcO) and is most distantly related to the mitochondrial respiratory oxidases.
Gravitropism is a fundamental process in plants that allows shoots to grow upward and roots to grow downward. Protein phosphorylation has been postulated to participate in the intricate signaling cascade of gravitropism. In order to elucidate the underlying mechanisms governing the gravitropic signaling and unearth novel protein constituents, an exhaustive investigation employing microgravity-induced phosphoproteomics was undertaken. The significantly phosphorylated proteins unraveled in this study can be effectively divided into two groups through clustering analysis. Furthermore, the elucidation of Gene Ontology (GO) enrichment analysis disclosed the conspicuous overrepresentation of these clustered phosphoproteins in cytoskeletal organization and in hormone-mediated responses intimately intertwined with the intricate phenomenon of gravitropism. Motif enrichment analysis unveiled the overrepresentation of [-pS-P-] and [-R-x-x-pS-] motifs. Notably, the [-pS-P-] motif has been suggested as the substrate for the Casein kinase II (CK II) and Cyclin-dependent kinase (CDK). Kinase-inhibitor assays confirmed the pivotal role played by CK II and CDK in root gravitropism. Mutant gravitropism assays validated the functional significance of identified phosphoproteins, with some mutants exhibiting altered bending kinetics using a custom-developed platform. The study also compared phosphoproteomics data from different platforms, revealing variations in the detected phosphopeptides and highlighting the impact of treatment differences. Furthermore, the involvement of TOR signaling in microgravity-induced phosphorylation changes was uncovered, expanding the understanding of plant gravitropism responses.
To fulfill the large-scale verification of interesting candidates from the phosphoproteomics study, a novel root and hypocotyl gravitropism phenotyping platform was developed. This platform integrated cost-effective hardware, including Raspberry Pi, a high-quality camera, an Arduino board, a rotation stage (obtained from Prof. Dr. Maik Böhmer), and programmable green light (modified by Sven Plath). In addition, through collaboration with a software developer, machine-learning-based software was developed for data analysis. This platform tested the gravitropic response of candidate mutants identified in the phosphoproteomics study. Furthermore, the capabilities of this platform were expanded to investigate tropisms in other species and organs. To find novel proteins that might act as partners of a key protein that is involved in gravitropism signaling, ALTERED RESPONSE TO GRAVITY 1 (ARG1), immunoprecipitation coupled with Mass Spectrometry (IP-MS) was performed and identified ARG1-LIKE1 (ARL1) as a potential interacting protein with ARG1. This interaction was further confirmed through in vivo pull-down assays and bimolecular fluorescence complementation assays. In addition, the interaction between ARG1 and HSP70-1 was also validated.
Overall, this thesis sheds light on the molecular components and signaling events involved in plant gravitropism. It contributes to existing knowledge and opens up new ways to investigate this fascinating area of plant biology.
Charge states and energy loss of heavy ions after passing an inductively coupled plasma target
(2019)
In various kinds of fields such as accelerator physics, warm dense matter, high energy density physics, and inertial confinement fusion, heavy ions beam-plasma interaction plays an important role, and abundant investigations have been and are being carried out. Taking advantage of a good level of understanding on the interaction between a swift heavy ions beam and a hydrogen gas discharge plasma, an engineering application of a spherical theta-pinch device as a plasma stripper for FAIR (facility for antiproton and ion research) and a scientific application of a swift heavy ions beam as a novel plasma diagnostic tool are proposed and investigated.
The spherical theta-pinch device is manufactured, improved, and comprehensively tested for its application as a plasma stripper. The device is mainly composed of an evacuated glass vessel that can be filled with gas (for example: hydrogen) and a LRC circuit including a capacitors bank and a set of coils. Discharging the device at an initial hydrogen pressure in the glass vessel and an operation voltage for the capacitors bank, a circuit current oscillates in the LRC circuit. The oscillating circuit current in the set of coils induces a corresponding alternating magnetic field inside the glass vessel to ignite and maintain a hydrogen plasma.
Based on the built setup of circuit and plasma diagnostics, the measurements of circuit current, plasma light emission, plasma shape, and hydrogen Balmer series are carried out. The recorded signals of the circuit current and the plasma light emission of many consecutively repetitive discharges overlap perfectly, which indicate a very good reproducibility of the parameters of the LRC circuit during discharge and the generated plasma. From the measured circuit current, a real energy transfer efficiency is calculated by our proposed new model, which shows its overall tendency varying with the hydrogen pressure and the operation voltage, including the maximum value of 25% occurring at an initial hydrogen pressure of around 25 Pa and a maximum operation voltage of 14 kV. So, the discharge at an initial hydrogen pressure of 20 Pa and an operation voltage of 14 ...