Refine
Year of publication
Document Type
- Doctoral Thesis (5708) (remove)
Language
- German (3623)
- English (2056)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5708)
Is part of the Bibliography
- no (5708) (remove)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- Entzündung (9)
Institute
- Medizin (1515)
- Biowissenschaften (832)
- Biochemie und Chemie (728)
- Physik (594)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (307)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Einleitung: Glioblastome, die aggressivsten malignen Gehirntumore, gehören zu den menschlichen Karzinomen mit der schlechtesten Prognose. Ihre Therapie stellt eine große Herausforderung dar. Eine komplette chirurgische Entfernung des Tumors ist auf Grund des infiltrativen Wachstums in gesundes Hirngewebe meist nicht möglich, und trotz der Standardtherapie, die Operation, Chemo- und Radiotherapie umfasst, sind die Behandlungserfolge nicht zufriedenstellend. Erschwerend kommt hinzu, dass das Gehirn vom übrigen Organismus durch die hochselektive Blut-Hirn-Schranke abgegrenzt ist, welche für viele potentiell wirksame therapeutische Substanzen eine Permeabilitätsbarriere darstellt. Somit stehen viele Zytostatika für die systemische Glioblastomtherapie nicht zur Verfügung und eine relative Therapieresistenz ist zu verzeichnen.
Nicht nur die Neuentwicklung von Arzneistoffen für die Pharmakotherapie von Erkrankungen des zentralen Nervensystems, wie den Gehirntumoren, sondern auch die Etablierung neuer Arzneiformen zur kontrollierten, gewebsspezifischen Arzneistoffapplikation gewinnt immer mehr an Bedeutung.
Ein Ansatz, der in der Vergangenheit vielversprechende Erfolge erzielte, ist die Einbettung von Arzneistoffen in kolloidale Trägersysteme wie polymere Nanopartikel oder Liposome. Diese Carrier sind in der Lage verschiedene Arzneistoffe über die Blut-Hirn-Schranke zu transportieren, damit diese im zentralen Nervensystem ihre Wirkung ausüben können. Der Grund für diesen Erfolg ist offensichtlich begründet in der nanopartikulären Größe und der besonderen Oberflächenstruktur dieser Träger. Zusätzlich geht mit der vermehrten Anreicherung der Wirkstoffe im Zentralnervensystem eine Verminderung der unerwünschten Arzneimittelwirkungen in peripheren Organen einher, was die Therapie positiv beeinflusst.
In der vorliegenden Arbeit wird die antitumorale Effizienz nanopartikulärer Formulierungen, die den Wirkstoff Doxorubicin enthalten, eingehend untersucht. Hierbei liegt der Schwerpunkt auf der histologischen und immunhistochemischen Analyse der Gehirntumore, die eine genaue
Differenzierung zwischen den Zubereitungen und eine aussagekräftige Effizienzbeurteilung erlaubt. Weiterhin wird der Fokus dieser Arbeit auf die Quantifizierung der Doxorubicinmenge gerichtet, die nach Applikation der nanopartikulären Formulierungen im Gehirn vorliegt.
Enthält u.a. die Publikationen:
Publikation 1:
Transport of drugs across the blood-brain barrier by nanoparticles – A review
Journal of Controlled Release – Special Issue: Drug delivery research in Europe
Status: accepted, geplantes Erscheinungsdatum: 01.2012
Publikation 2:
Increased numbers of injections of doxorubicin bound to nanoparticles lead to enhanced efficacy against rat glioblastoma 101/8
Wohlfart et al. 2009, Journal of Nanoneuroscience, Volume 1, Number 2, December 2009, pp. 144-151 (8)
Publikation 3:
Treatment of glioblastoma with poly (isohexyl cyanoacrylate) nanoparticles
Wohlfart et al. 2011, International Journal of Pharmaceutics 415 (2011) 244-251
Publikation 4:
Drug delivery to the brain using surfactant-coated poly (lactide-co-glycolide)
nanoparticles: Influence of the formulation parameters
Gelperina et al. 2010, European Journal of Pharmaceutics and Biopharmaceutics 74 (2010) 157–163
Publikation 5:
Efficient chemotherapy of rat glioblastoma using doxorubicin-loaded PLGA nanoparticles with different stabilizers
Wohlfart et al. 2011, PloS One May 2011, Volume 6, Issue 5, e 19121
Publikation 6:
Kinetics of transport of doxorubicin bound to nanoaprticles across the blood-brain barrier
Wohlfart et al. 2011, Journal of Controlled Release (2011),
doi:10.1016/j.jconrel.2011.05.010, in press
Ziel der vorliegenden experimentellen Untersuchung war die Erfassung und vergleichende Beurteilung der mechanischen Belastbarkeit sowie des Frakturverhaltens von karbonfaserverstärkten, keramischen und palladiumfreien Wurzelstiftsystemen. Des Weiteren galt es, die Ergebnisse im Vergleich zum Permador®-Stift, dessen Bewährung in einer vorangegangenen klinischen Untersuchung nachgewiesen wurde, und zu wurzelgefüllten Zähnen zu überprüfen. Gegenstand der Untersuchung waren der palladiumhaltige Permador®-Stift, die palladiumfreien Stiftaufbausysteme AF1, ER® Pt-IR, die keramischen Stifte Cerapost®, Celay® Alumina und Celay® Zirkonia sowie der Karbonfaserstift Composipost®. Als Kontrollgruppe dienten wurzelgefüllte, nicht stiftversorgte Wurzeln. Um die Streuung der Messwerte, die durch die individuell unterschiedliche Dimensionierung und Morphologie von extrahierten natürlichen Frontzähnen beeinflusst werden, zu minimieren, fanden künstliche Zähne aus dem lichthärtenden BisGMAKomposit Estilux hybrid VS posterior (Heraeus Kulzer, Wehrheim/Ts.), Verwendung. Dessen Elastizitätsmodul beträgt nach Aushärtung 19.000 MPa und entspricht somit dem Wert des natürlichen Dentins. Die Herstellung der Wurzeln, Aufbauten und Kronen fand mit sogenannten Modeln statt, wodurch die Herstellung identischer Prüfkörper gewährleistet wurde. Als Aufbaumaterial fand für die metallischen Stiftsysteme ein Phantom-Metall, für das Cerapost®- und Composipost®-System ein Komposit und für die kopiergefrästen Systeme Celay® Alumina und Celay® Zirkonia-Keramik Verwendung. Sämtliche Stiftverankerungen wurden, nach Konditionierung mit dem Rocatec®-Verfahren, mit Panavia® 21 in den Wurzeln zementiert. Im Anschluss erfolgte die Zementierung standardisierter Kronen aus Phantommetall auf allen Wurzeln. Die zyklische Wechselbelastung (1,2x106 Zyklen; 1,4 Hz und 30 N) wurde im Willytec-Kausimulator Version 3.1. (Fa. Willytec, München) vorgenommen. Die Simulation der Wurzelhaut für die Wechsel- und die Bruchbelastung wurde durch Einbettung der Wurzeln in einem Elastomer (Permadyne® Garant; Espe, Seefeld) vorgenommen. In einer Universal-Prüfmaschine (Zwicki 1120; Zwick, Ulm) (Vorschubgeschwindigkeit 0,5 mm/min) wurden die Versuchszähne palatinal, 2 Millimeter unterhalb der Inzisalkante, unter einem Winkel von 135° bis zum Bruch der Wurzel belastet. Hinsichtlich der Bruchlast ergaben die Medianwerte folgende Resultate: Metallstifte: Permador®: 475,4 N; AF1: 444,7 N; ER Pt-Ir: 422,4 N. Der KRUSKAL-WALLIS-Test mit BONFERRONI-Korrektur (p ≤ 0,05) zeigte keine signifikanten Unterschiede zwischen diesen drei Stiftsystemen einerseits und der Kontrollgruppe andererseits. Für die keramischen Stifte wurden 432,2 N [Celay® Alumina], 488,8 N [Celay® Zirkonia] bzw. 416,4 N [Cerapost®] und für den Karbonfaserstift [Composipost®] 515,7 N ermittelt. Bei der Kontrollgruppe trat eine Bruchlast von 363,4 N auf. Bezüglich der Bruchlastwerte lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse zwischen dem kopiergefrästen Keramikstiftaufbau Celay® Zirkonia aus zirkoniumoxidverstärkten Al2O3 einerseits bzw. dem Karbonfaserstift Composipost® und der Kontrollgruppe andererseits signifikante Unterschiede vor (p ≤ 0,05). Die ermittelten Distanzen zwischen Kraftangriffspunkt und den oberen Bruchspaltenden ergaben Medianwerte von 8,0 mm bis 11,1 mm auf der vestibulären Seite und 7,6 mm bis 14,7 mm auf der palatinalen Seite der Wurzeloberfläche. Bezüglich der Distanzen der Frakturverläufe lagen unter Berücksichtigung des BONFERRONI-Tests bei der statistischen Datenanalyse nur palatinal zwischen dem Cerapost®-Stift einerseits und dem Celay® Alumina-Stift und der Kontrollgruppe andererseits signifikante Unterschiede vor. Die vorliegende Studie zeigt, dass hinsichtlich der Bruchlastwerte nach dynamischer Belastung der Karbonfaserstift Composipost® und, bei hohen ästhetischen Ansprüchen, der kopiergefräste Keramikstift Celay® Zirkonia als interessante Alternative zum klinisch bewährten Permador®-Stift zu sehen sind. Des Weiteren zeigt die Untersuchung, dass sich die Verwendung palladiumfreier Stiftsysteme nicht nachteilig auf das Bruchverhalten nach dynamischer Belastung auswirkt.
Die N- und O-Glykosylierung von Proteinen ist gekennzeichnet durch eine hohe strukturelle und funktionelle Komplexität. Da verschiedene Glykanstrukturen und Glykosylierungsstellen selbst innerhalb eines Proteins unterschiedliche Aufgaben erfüllen können, ist sowohl für die Grundlagenforschung als auch für die Pharma-Industrie eine stellenspezifische Analytik zur Aufklärung der biologischen Bedeutung und bei therapeutischen Proteinen zur Gewährleistung von Sicherheit und gleichbleibenden pharmakologischen Eigenschaften essentiell. Die niedrige Abundanz sowie die hohe Komplexität durch die variablen Glykanzusammensetzungen und Verzweigungsmöglichkeiten sowie der daraus resultierende Mikroheterogenität an jeder einzelnen Stelle stellt jedoch eine besondere Herausforderung an die Analytik dar. In dieser Arbeit wurden deshalb auf verschiedenen Ebenen der Probenvorbereitung, der chromatographischen Separation sowie der MS-Analyse- Methoden und Techniken entwickelt und charakterisiert, um die stellenspezifische Analytik der Proteinglykosylierung zu vereinfachen.
In einem ersten Schritt wurde die hohe Komplexität eines Glykoproteinverdaus reduziert. Es wurden verschiedene Methoden zur Glykopeptidanreicherung miteinander verglichen, wobei sich die HILIC-Festphasenextraktion unter optimierten Bedingungen durch eine sehr hohe Selektivität und Effizienz auszeichnete. Zur Methodenoptimierung wurden verschiedene HILIC-Materialien (Silika, Amino, Mikrokristalline Cellulose, TSKgel Amide-80 und ZIC®-HILIC) eingesetzt und durch eine Variation der Anreicherungsbedingungen die Hauptretentionsmechanismen für jedes Material beschrieben. TSKgel Amide-80 sowie ZIC®-HILIC sind am besten geeignet, da unter optimierten Bedingungen sekundäre Retentionsmechanismen wie elektrostatische Wechselwirkungen deutlich reduziert werden und die hydrophile Verteilung den Hauptretentionsmechanismus darstellt. Des Weiteren wurde gezeigt, dass Parameter wie die Pufferzusammensetzung, Inkubationszeiten und die Volumenverhältnisse zwischen HILIC-Suspension, Binde-, Wasch- und Elutionspuffer entscheidend die Reproduzierbarkeit, Ausbeute und Selektivität beeinflussen. Unter Berücksichtigung dieser Beobachtungen wurde ein Protokoll entwickelt, mit welchem Glykopeptide selektiv und quantitativ, d.h. ohne Präferenz für bestimmte Glykanstrukturen, aus komplexen Proben angereichert werden können. In Kombination mit Titandioxid zur selektiven Anreicherung sialylierter Glykopeptide bei bestimmten Fragestellungen ermöglichten in dieser Arbeit beide Methoden eine detaillierte Charakterisierung sowohl von N- als auch von O-Glykopeptiden. Die Hydrazinchemie erwies sich aufgrund eines zu komplexen Arbeitsschemas und einer unzureichenden Wiederfindung als nicht geeignet.
Da je nach Aminosäuresequenz oft mit einer einzigen Protease (z.B. Trypsin) nicht alle Glykosylierungsstellen aufgrund ihrer Eigenschaften (z.B. Größe, Hydrophobizität) für die Anreicherung und LC-MS-Analyse zugänglich sind, kamen in dieser Arbeit weitere Proteasen zum Einsatz. Durch eine sequentielle Kombination von Trypsin mit Endoproteinase Glu-C bzw. Trypsin mit Chymotrypsin konnten in allen Proteinen sämtliche N-Glykosylierungsstellen nach einer Anreicherung identifiziert werden. Bei der Analyse von O-Glykopeptiden verbesserte zusätzlich die N-Deglykosylierung des intakten Proteins und die Abtrennung der freien N-Glykane mittels Ultrafiltration vor der Anreicherung die Analytik. Neben den bereits für die N-Glykopeptide beschriebenen Enzymkombinationen wurde außerdem Proteinase K eingesetzt, um die O-Glykopeptide z.B. von Fetuin effizient anzureichern und mittels LC-ESI-MS2/MS3 zu charakterisieren. Dies war mit einem Trypsinverdau alleine nicht möglich.
Die Komplexität nach einer Glykopeptidanreicherung ist jedoch aufgrund unterschiedlicher Glykanstrukturen und Glykosylierungsstellen immer noch so hoch, dass bei 1-dimensionalen HPLC-Läufen Koelution von Glykopeptiden zu einer unzureichenden Detektion niedrig-abundanter Formen führen kann. Aus diesem Grund wurden die komplementäre HPLC-Phasen RP18 und ZIC®-HILIC eingesetzt, um sich chromatographisch die differenzierenden Eigenschaften von Peptidgerüst und Glykanrest zunutze zu machen. ZIC®-HILIC ermöglicht die Auftrennung überwiegend nach der Glykanstruktur und RP18e nach Peptidsequenz und Anzahl an Sialinsäuren. Durch die Kombination beider Phasen in 1- und 2-dimensionalen HPLC-Konfigurationen konnten deutlich mehr unterschiedliche Glykoformen nachgewiesen und die Detektion niedrig-abundanter Glykopeptide ermöglicht werden, die bei der Verwendung von nur einer stationären Phase nicht identifiziert werden konnten.
Zusammen mit einer komplementären MS-Analytik, die sowohl ESI als auch MALDI sowie unterschiedliche Fragmentierungstechniken wie CID, ETD, PSD oder CID-MS2/MS3 umfasste, konnten N- und O-Glykopeptide stellenspezifisch und vollständig sowohl mit ihrem Peptid- als auch mit ihrem Glykananteil charakterisiert werden.
Für bestimmte quantitative Fragestellungen wurden außerdem die beschriebenen Anreicherungsmethoden mit dem zur Quantifizierung eingesetzten N-Glycan Mapping kombiniert und ein Arbeitschema entwickelt, mit welchem bei einem mehrfach glykosylierten Protein die Verhältnisse der unterschiedlichen Glykanstrukturen an den einzelnen Glykosylierungsstellen getrennt voneinander quantifiziert werden können.
Mit jeder einzelnen, in dieser Arbeit beschriebenen Methode wird ein beträchtlicher Informationsgewinn erzielt, doch erst durch die Kombination einer effizienten Probenvorbereitung, einer komplementären HPLC-Separation, verschiedener MS/MS-Techniken und Methoden zur Quantifizierung kann die Glykosylierung eines komplexen Proteins stellenspezifisch und detailliert beschrieben werden.
Die Temporallappenepilepsie ist eine der häufigsten vorkommenden Epilepsieformen. Sie geht meist mit Schädigungen der Strukturen im Bereich des medialen Temporallappens einher, welche eine sehr wichtige Rolle bei der Verarbeitung der Emotionen und bei Gedächtnisprozessen spielen. In dieser Arbeit sollten die Auswirkungen einer Temporallappenepilepsie auf emotionale Gedächtnisprozesse untersucht werden. Dafür wurden in der Zeit von März 2006 bis März 2007 insgesamt 31 Patienten der Spezialambulanz für Epilepsie an der Klinik für Neurologie der Johann-Wolfgang-Goethe Universität Frankfurt am Main, die an einer eindeutig nachgewiesenen Temporallappenepilepsie leiden, getestet. Später wurden 5 Patienten wegen psychiatrischer Erkrankungen aus der Studie ausgeschlossen. Zum Vergleich wurden im gleichen Zeitraum 21 neurologisch und psychiatrisch unauffällige Probanden, die im Alter und im Ausbildungsstand den Patienten ungefähr gleich waren, getestet. Alle Probanden mussten 10 Wortlisten lernen, die jeweils ein emotional negatives Wort und ein perzeptiv auffälliges Wort beinhalteten. Nach einer kurzen Ablenkungsphase nach jeder Liste sollten sie diese Worte in einer anderen Wortliste wiedererkennen. Außerdem sollten sie am Ende der Testung alle Worte, die ihnen noch in Erinnerung waren, aufzählen. Bei den Patienten wurde zusätzlich noch eine neuropsychologische Testung vorgenommen, um krankheitsbedingte Leistungsdefizite zu erkennen. Die Ergebnisse zeigen, dass die Patienten in den allgemeinen Leistungen kognitive Defizite gegenüber den gesunden Probanden aufweisen, und dass der Lernmechanismus für emotionale Worte bei den gesunden Probanden anders ist als bei den Patienten. So kommt es bei den gesunden Probanden zu einem besseren Wiedererkennen der emotionalen Worte und einer retrograden Amnesie für das vorherige Wort. Bei den Patienten hingegen finden sich keine signifikanten Unterschiede in der Häufigkeit mit der die verschiedenen Worte wiedererkannt werden, obwohl die emotional negativen Worte mit der gleichen Intensität empfunden werden. Teilt man die Patienten in Untergruppen auf, sozeigen sich Zusammenhänge der Erinnerungshäufigkeiten mit verschiedenen Faktoren, wie den Ergebnissen für das Verbalgedächtnis im neuropsychologischen Test, dem Vorliegen einer Hippokampussklerose, der Anzahl der Ausbildungsjahre und der Art der Anfälle. Diese Zusammenhänge lassen darauf schließen, dass eine größere Ausdehnung der Schädigung auch den bei der Kontrollgruppe beschriebenen Effekt des emotionalen Lernens stärker reduziert. Außerdem zeigen sich besonders bei Patienten mit höherem Ausbildungsstand Verlagerungen der Lernstrategien auf andere Arten der Auffälligkeit, in diesem Fall auf perzeptiv auffallende Worte.
Hintergrund: Patienten mit einer Lese- und Rechtschreibstörung (LRS) sind von einer langfristigen Behinderung betroffen, die sich nachteilig auf die schulische und soziale Entwicklung auswirkt. Insbesondere stellt die Lesekompetenz einen Grundbaustein der individuellen Bildung dar, ohne die ein fächerübergreifendes Lernen nicht möglich ist. Es besteht die Vermutung, dass die Diagnostik und folglich auch die Therapie der isolierten Rechtschreibstörung in der klinischen Praxis überwiegen und Kinder mit einer (isolierten) Lesestörung übersehen werden. Diese Studie beschäftigt sich mit der Frage, ob Lesestörungen unerkannt bleiben. Ferner ist bekannt, dass Patienten mit einem Asperger-Syndrom bei guter Lesefertigkeit, häufig Defizite im Bereich des Leseverständnisses aufweisen. Es wird untersucht, ob ein Zusammenhang zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik besteht. Patienten und Methode: In einem dreimonatigen Zeitraum (T 2: 09/07 – 11/07) werden alle ambulanten und stationären Neuaufnahmen (8 - 17 Jahre) hinsichtlich ihrer Lese- und Rechtschreibfähigkeit sowie autistischer Symptomatik untersucht. Nach Anwendung der Ausschlusskriterien nehmen N = 104 Patienten an den Gruppentestungen teil, die jeweils einen IQ-Test, je nach Altersgruppe zwei bis drei Lesetests und einen Rechtschreibtest beinhalten. Die Eltern der Kinder füllen einen Autismus-, psychopathologischen und Zusatzfragebogen aus. Die Ergebnisse der Leistungstests werden mit den Diagnosestellungen des gleichen Zeitraumes aus dem Jahr 2006 (T 1: 09/06 – 11/06) verglichen, wobei zu dieser Zeit keine forcierten Testungen stattfanden. Ergebnisse: Im Zeitraum T 2 wiesen 14 Patienten (13,5%) eine isolierte Lesestörung auf. Dies entspricht einer viermal häufigeren Diagnosestellung als im Jahr zuvor, bei der nur 3 Patienten (3,3 %) eine alleinige Lesestörung aufwiesen (p = .013). Bei 16 (15,4%) Probanden konnte eine isolierte Rechtschreibstörung diagnostiziert werden. 2006 wurden nur 6 (6,7 %) Kinder mit dieser Diagnose ermittelt (p = .056). Die Diagnose der LRS (F81.0) erhielten im Jahr 2007 20 Kinder (19,2%). Im Jahr zuvor fanden sich bloß 8 (8,9%) Kinder mit einer LRS (F81.0) (p = .041). Die Ergebnisse im Autismusscreening konnten keine Zusammenhänge zwischen der Lesefertigkeit und der Ausprägung autistischer Symptomatik bestätigen. Schlussfolgerung: Lesestörungen bleiben unerkannt. Für ihre Diagnostik ist es von essentieller Bedeutung, bei Vorliegen eines klinischen Verdachts stets Testungen zu Lese- und Rechtschreibstörungen durchzuführen. Einer Routinetestung aller Neuaufnahmen kann jedoch nicht angeraten werden. Es empfiehlt sich alle Patienten zu testen, die eine typische Begleitstörung der LRS aufweisen, z.B. hyperkinetische Störungen.
This thesis investigates the acquisition pace and the typical developmental path in eL2 acquisition of selected phenomena of German morphosyntax and semantics and compared them to monolingual acquisition. In addition, the influence of ‘Age of Onset’ and of external factors on eL2 acquisition is examined.
To date, the most studies on eL2 acquisition focused on language production. Based on mostly longitudinal spontaneous speech data of only small number of children, they indicate that eL2 learners acquire sentence structure and subject-verb-agreement faster than monolingual children, whereas the acquisition of case marking causes them more difficulties. Moreover, similar developmental paths to those of monolingual children are claimed. Only several studies examined comprehension abilities in eL2 learners, however overwhelmingly in cross-sectional design. The findings from comprehension studies on telic and atelic verbs, and on wh-questions indicate that eL2 children acquire their target-like interpretation faster than monolingual children. The same acquisition stages towards target-like interpretation like in monolingual acquisition are assumed as well. Taking together, to date, no study exists, that examines comprehension and production abilities in a large group of eL2 learners of German in a longitudinal design.
This thesis extends the previous results by investigating pace of acquisition, impact of factors, and individual developmental paths in a longitudinal design with large groups of participants. Language data of 29 eL2 learners of German (age at T1: 3;7 years, LoE: 10 months) and 45 monolingual German-speaking children (age at T1: 3;7) are examined. The eL2 learners were tested in six test rounds (age at T6: 6;9 years). The monolingual children were tested in five test rounds (are at T5: 5;7). The standardized test LiSe-DaZ (Schulz & Tracy, 2011) was employed to examine children’s language skills.
eL2 learners show a significantly greater rate of change, thus faster acquisition pace, than monolingual children in the following scales: comprehension of telicity, comprehension of wh-questions, production of prepositions, and production of conjunctions. These phenomena are acquired early in monolingual children. No differences regarding acquisition pace between eL2 children and monolingual children are found for comprehension of negation, production of case marking, and production of focus particles. These phenomena are acquired late in monolingual development and involve semantic and pragmatic knowledge. The findings of faster acquisition pace of several phenomena are in line with several studies that reported that eL2 children develop faster than monolingual children.
Independent on whether a phenomenon is acquired early or late, no effects of external factors on eL2 children’s performance are found. These findings indicate that acquisition of core, rule-based phenomena is not sensitive to external factors if the first exposure to L2 takes place around the age of three.
Moreover, eL2 children show the same developmental stages and error types in comprehension of telicity, comprehension of negation, production of matrix and subordinate clauses. This is also independent on how fast they acquire a structure under consideration. Thus, these findings provide a further support for similar developmental paths of eL2 and monolingual children towards target-like comprehension and production.
Analyse und Vorhersage von Kristallstrukturen tetraederförmiger Moleküle und fehlgeordneter Phasen
(2012)
Die Kristallstrukturen tetraederförmiger EX4-Moleküle mit E = C, Si, Ge, Sn, Pb und X = F, Cl, Br, I konnten in sieben Strukturtypen eingeteilt werden. In fast allen Verbindungen nehmen die Halogenatome eine verzerrte Kugelpackung (ccp, hcp, bcc, cp) ein. Die E-Atome besetzen in den dichtesten Kugelpackungen 1/8 aller Tetraederlücken, wobei sich für diese Atome ebenfalls eine Anordnung wie für verzerrte Kugelpackungen ergibt (cp, ccp, hcp). In den anderen Fällen (bcc, cp für die Anordnung der Halogenatome) ergibt sich für die Anordnung der E-Atome selbst ebenfalls eine verzerrte Kugelpackung (bcc, s). Dabei steht s für die Anordnung der E-Atome analog der Schwefelatome im Pyrit (FeS2). Jeder Strukturtyp unterscheidet sich in der Art der kürzesten Halogen-Halogen-Wechselwirkungen. Die in der Literatur für halogenierte organische Verbindungen beschriebenen Typen der Wechselwirkung lassen sich auch bei den EX4-Verbindungen finden. Die E-X-X-Winkel liegen in einem Bereich von 80-100° und 130-160° und sind damit etwas kleiner als für die halogenierten organischen Verbindungen. Mit Hilfe von Gitterenergieminimierungen konnten diverse potentielle Polymorphe für die EX4-Verbindungen vorhergesagt werden.
Eine vollständige Kristallstrukturvorhersage wurde für SiBr4 durchgeführt. Für diese Vorhersage wurden die Van-der-Waals-Parameter neu bestimmt. Dazu wurde das Br-Br-Potential mit Hilfe von Vergleichsrechnungen an den beiden experimentellen Strukturen des GeBr4 in den Raumgruppentypen Pa3, Z = 8 (s/ccp), und P21/c, Z = 4 (hcp/hcp), optimiert. Für die Vorhersage des SiBr4 konnten zwei der vorhergesagten Strukturen durch extern durchgeführte Kristallisationsexperimente bestätigt werden. Eine Hochtemperaturmodifikation kristallisiert oberhalb von 168K im Raumgruppentyp Pa3, Z = 8 im Strukturtyp s/ccp. Diese Struktur konnte bei der Vorhersage auf Rang 9 gefunden werden. Die Tieftemperaturmodifikation, die unterhalb von 168K vorliegt, kristallisiert im Raumgruppentyp P21/c, Z = 4 (Strukturtyp hcp/hcp). Diese Struktur hat Rang 4 der Vorhersage. Die vorhergesagten und experimentellen Strukturen zeigen nur geringe Abweichungen voneinander.
Für die tetraederförmigen E(CH3)4-Moleküle wurden für Tetramethylsilan und Tetramethylgerman vollständige Kristallstrukturvorhersagen durchgeführt. Die energetisch günstigste Struktur ist für beide Verbindungen im Raumgruppentyp Pa3 mit Z = 8 zu finden. Die energetisch zweitgünstigste Struktur hat den Raumgruppentyp Pnma mit Z = 4. Für Tetramethylsilan konnten die Strukturen mit Rang 1 und 2 experimentell bestätigt werden. Eine Hochdruckmodifikation des Tetramethylsilans kristallisiert im Raumgruppentyp Pa3 mit Z = 8. Diese Struktur entspricht der berechneten energetisch günstigsten Struktur auf Rang eins. Ihr konnte der Strukturtyp s/ccp zugeordnet werden. Mit Tieftemperatur-Röntgenpulverbeugungsexperimenten konnte eine Tieftemperaturmodifikation bei T = 100 K im Raumgruppentyp Pnma, Z = 4, mit Strukturtyp ccp/hcp gefunden werden.
Gitterenergieberechnungen wurden für die Strukturanalysen von drei fehlgeordneten Phasen eingesetzt. Experimentell bestimmte Kristallstrukturen von Azulen und Pigment Red 194 haben den Raumgruppentyp P21/c, Z = 2. Die Moleküle befinden sich dabei auf einer Punktlage mit Inversionssymmetrie. Da beide Moleküle kein Inversionszentrum aufweisen, kommt es zu einer Orientierungsfehlordnung. Für die rechnerische Analyse der Fehlordnung wurden jeweils sechs geordnete Modelle ausgehend von den fehlgeordneten Strukturen erstellt, die möglichst wenige Moleküle pro Elemenarzelle aufweisen sollten. Gitterenergieberechnungen und die Auswertung der Boltzmann-Verteilung zeigten, dass in bei beiden Kristallstrukturen eine statistische Fehlordnung der Moleküle vorliegt, die sich aus mehreren geordneten Modellen aufbauen lässt. Bei Azulen ist eine geordnete Struktur im Raumgruppentyp Pa, Z = 4, energetisch etwas günstiger als die anderen Modell. Für Pigment Red 194 zeigte sich, dass die Fehlordnung unter der Annahme, dass nur die berechneten Modelle die fehlgeordnete Struktur bilden, mit über 99%iger Wahrscheinlichkeit aus den vier energetisch günstigsten Modellen Pc, Z = 2, P21, Z = 2, P21/c, Z = 4 und Pc, Z = 4 besteht.
Die dritte untersuchte fehlgeordnete Struktur ist die des Natrium-p-chlorphenylsulfonat-Monohydrats. Die Fehlordnung bezieht sich hier nur auf die Phenylringe, die dort mit einer Besetzung von 50% zueinander senkrecht stehen. Mit Hilfe der Order-Disorder-Theorie konnten zwei geordnete Modelle im Raumgruppentyp P21/c und ein weiteres geordnetes Modell im Raumgruppentyp C1c1 (Z = 16, Z'= 2) aufgestellt werden. Gitterenergieminimierungen dieser Modelle zeigten, dass sich die Fehlordnung statistisch aus allen drei Modellen zusammensetzt. Das energetisch günstigste geordnete Modell im Raumgruppentyp P21/c, Z = 8 (Z' = 2), konnte als verzwillingte Struktur aus Einkristalldaten bestätigt werden.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Im Weltall existieren hunderte sehr helle Objekte, die eine hohe konstante Leuchtkraft im Wellenlängenbereich von Gammastrahlung besitzen. Die konstante Leuchtkraft mancher dieser Objekte wird in regelmäßigen Abständen von starken Ausbrüchen, den sogenannten X-Ray-Bursts, unterbrochen. Hauptenergiequelle dieser X-RayBursts ist der „rapid-proton-capture“-Prozess (rp-Prozess). Dieser zeichnet sich durch eine Abfolge von (p,γ)-Reaktionen und β+-Zerfällen aus, die die charakteristischen Lichtkurven produzieren. Für viele am Prozess beteiligte Reaktionen ist der Q-Wert sehr klein, wodurch die Rate der einzelnen Reaktionen von den resonanten Einfängen in die ungebundenen Zustände dominiert wird. Die Unsicherheiten in der Beschreibung der Lichtkurve sind derzeit aufgrund fehlender kernphysikalischer Informationen von vielen am Prozess beteiligten Isotopen sehr groß. Sensitivitätsstudien zeigen, dass dabei die Unsicherheiten der 23Al(p,γ)24Si-Reaktion eine der größten Auswirkungen auf die Lichtkurve hat. Diese werden durch ungenaue und widersprüchliche Informationen zu den ungebundenen Zuständen im kurzlebigen 24Si hervorgerufen.
Um Informationen über die Kernstruktur von 24Si zu erhalten, wurde am National Superconducting Cyclotron Laboratory (NSCL), Michigan, USA, die 23Al(d,n)24Si Transferreaktion untersucht. Der in dieser Form erstmals umgesetzte Versuchsaufbau bestand aus einem Gammadetektor zur Messung der Übergangsenergien des produzierten 24Si, einem Neutronendetektor zur Messung der Winkelverteilung der emittierten Neutronen und einem Massensprektrometer zur Identifikation des produzierten Isotops. Mit diesem Aufbau, der eine Detektion der kompletten Kinematik der (d,nγ)-Reaktion ermöglichte, konnten folgende Erkentnisse gewonnen werden:
Aus der Energie der nachgewiesenen Gammas konnten die Übergänge zwischen den Kernniveaus von 24Si bestimmt und daraus die Energien der einzelnen Zustände ermittelt werden. Dabei konnte neben dem bereits bekannten gebundenen 2+-Zustand (in dieser Arbeit gemessen bei 1874 ± 2,9keV) und dem ungebundenen 2+-Zustand (3448,8 ± 4,6keV), erstmals ein weiterer ungebundener (4+,0+)-Zustand bei 3470,6 ± 6,2 keV beobachtet werden. Zusätzlich konnte die Diskrepanz, die bezüglich der Energie des ungebundenen 2+-Zustands aufgrund früherer Messungen bestand, beseitigt und die Energieunsicherheit reduziert werden.
Aus der Anzahl der nachgewiesenen Gammas konnten ebenfalls die (d,n)-Wirkungsquerschnitte in die einzelnen Zustände von 24Si bestimmt werden. Unter Verwendung der Ergebnisse von DWBA-Rechnungen konnte mithilfe dieser die spektroskopischen Faktoren berechnet werden. Für die angeregten Zustände musste dabei zwischen verschiedenen Drehimpulsüberträgen unterschieden werden. Mittels der Winkelverteilung der nachgewiesenen Neutronen konnte gezeigt werden, dass die Gewichtung anhand der theoretischen spektroskopischen Faktoren zur Berechnung der Anteile des jeweiligen Drehimpulsübertrags am gesamten Wirkungsquerschnitt für den entsprechenden Zustand gute Ergebnisse liefert. Für eine quantitative Bestimmung der spektroskopischen Faktoren der Zustände anhand der Neutronenwinkelverteilungen in 24Si war allerdings die Statistik zu gering. Für den Fall der deutlich häufiger beobachteten 22Mg(d,n)23Al-Reaktion konnte hingegen ein spektroskopischer Faktor für den 23Al-Grundzustand von 0,29 ± 0,04 bestimmt werden. Abschließend wurden die Auswirkungen der gewonnenen Erkenntnisse zur Kernstruktur von 24Si auf die Rate der 23Al(p,γ)-Reaktion untersucht. Dabei konnte aufgrund der besseren Energiebestimmung zum einen die Diskrepanz zwischen den Raten die auf Grundlage der beiden früheren Untersuchungen berechnet wurden und bis zu einem Faktor von 20 voneinander abweichen, beseitigt werden. Zum anderen konnte aufgrund der kleineren Unsicherheit in der Energiebestimmung der Fehlerbereich der Rate verkleinert werden. Die Untersuchungen zeigen, dass die Unsicherheit in der neuen Rate von der Ungenauigkeit der Massenbestimmung der beiden beteiligten Isotope und damit dem Q-Wert der Reaktion dominiert wird. Durch eine bessere Bestimmung des Q-Werts könnte die Unsicherheit in der Rate aufgrund der neuen experimentellen Ergebnisse auf ein Zehntel gesenkt werden.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
Chemieunterricht in der Schule wird von Schülerinnen und Schülern in weiten Bereichen als schwer verstehbar, für das Alltagsleben als unnütz und wenig motivierend erlebt. Dies hat zur Folge, dass der Chemieunterricht von einer großen Zahl Lernender in der Oberstufe abgewählt wird. Dabei wird bewusst die Bedeutung der Chemie für die Industriegesellschaft ignoriert und die Konsequenz des Nachwuchsmangels nicht ernst genommen.
Bei der Suche nach Lösungsansätzen aus der Krise des schulischen Chemieunterrichts gibt es viele Ansätze, die sich seit einigen Jahrzehnten mit der Kontextorientierung und der Erschließung neuer Felder für den Chemieunterricht befasst haben und befassen. Ausgehend von Themen, deren Bedeutung für das Individuum und die Gesellschaft einen hohen Stellenwert haben, wird der Chemieunterricht mehr an die Lebenswelt der heranwachsenden Generation angepasst. Diese Vorgaben sind in der vorliegenden Arbeit einbezogen worden und haben das Thema HIV für den Chemieunterricht der gymnasialen Oberstufe als sinnvoll erscheinen lassen.
Vor dem Hintergrund der kognitionspsychologischen Erkenntnisse der vergangenen fünfzehn Jahre ist ein Weg der Unterrichtsgestaltung gewählt worden, mit dem die Selbständigkeit der Lernenden unterstützt, gefördert und weiterentwickelt werden kann. Kognitionspsychologische Untersuchungen der Eingangskanäle bei Lernvorgängen stellen die hohe Bedeutung mehrer Sinnesmodalitäten in den Vordergrund, durch die eine verbesserte Behaltensleistung erzielbar ist. Nach diesen Erkenntnissen kann Wissen nur dann als aktives Wissen in neuen Zusammenhängen eingesetzt werden, wenn Lernern die Möglichkeit geboten wird ihr individuelles Gedankengebäude zu konstruieren. Besonders effizient sind nach diesen Untersuchungen kombinierte Sinnesmodalitäten mit guter Behaltensleistung bei der Nutzung von Sprache, Text und Bewegtbildern. Hier gilt die alte Erkenntnis "ein Bild sagt mehr als tausend Worte" auch im übertragenem Sinne. Besonders die konstruktivistischen Überlegungen für den Vorgang des Wissensaufbaus wurden in dieser Arbeit berücksichtig.
Diese Forschungsergebnisse waren ein Grund für die multimediale Aufbereitung des Themas. Hoher Verbreitungsgrad, gesellschaftliche Bedeutung und Motivation durch Multimedia sind weitere Gründe für diese Entscheidung.
Sowohl curriculare als auch gesellschaftliche Entwicklungen fordern darüber hinaus das Denken in vernetzten Systemen, dies bedeutet ein über die Grenzen des Fachs Chemie hinausgehendes Planen und Realisieren von Unterricht. Mit der Themenwahl werden direkt die Fächer Chemie und Biologie angesprochen, Fächer wie Kunst, Religion, Ethik, Sozialkunde und Sprachen können einbezogen werden. Mit dem der Unterrichtseinheit, die von fünf Kursen mit insgesamt 60 Schülerinnen und Schülern erprobt wurde, zu Grunde liegenden Programm zum Thema HIV verknüpfen sich die Fragen:
* Ist der Einsatz von Computern als Medium bereits die Norm?
* Welche medialen Angebote werden schulisch/außerschulisch genutzt?
* Welche Informationsquellen werden verwendet?
* Welche Medien sind für die Testpersonen beim Lernprozess bedeutend?
* Wird die Lehrperson bei dem Einsatz der modernen Medien ersetzt?
* Fördert das Projekt die Selbstbestimmung beim Lernprozess?
* Welche Effekte hat das multimediale Projekt auf den Lernprozess?
* Welche Probleme treten beim Umgang mit dem verwendeten Programm auf?
Diese Punkte wurden mit einem Fragebogen vor und einem nach der Durchführung des Projektes bearbeitet...
Proteins are biological macromolecules playing essential roles in all living organisms.
Proteins often bind with each other forming complexes to fulfill their function. Such protein complexes assemble along an ordered pathway. An assembled protein complex can often be divided into structural and functional modules. Knowing the order of assembly and the modules of a protein complex is important to understand biological processes and treat diseases related to misassembly.
Typical structures of the Protein Data Bank (PDB) contain two to three subunits and a few thousand atoms. Recent developments have led to large protein complexes being resolved. The increasing number and size of the protein complexes demand for computational assistance for the visualization and analysis. One such large protein complex is respiratory complex I accounting for 45 subunits in Homo sapiens.
Complex I is a well understood protein complex that served as case study to validate our methods.
Our aim was to analyze time-resolved Molecular Dynamics (MD) simulation data, identify modules of a protein complex and generate hypotheses for the assembly pathway of a protein complex. For that purpose, we abstracted the topology of protein complexes to Complex Graphs of the Protein Topology Graph Library (PTGL). The subunits are represented as vertices, and spatial contacts as edges. The edges are weighted with the number of contacts based on a distance threshold. This allowed us to apply graph-theoretic methods to visualize and analyze protein complexes.
We extended the implementations of two methods to achieve a computation of Complex Graphs in feasible runtimes. The first method skipped checks for contacts using the information which residues are sequential neighbors. We extended the method to protein complexes and structures containing ligands. The second method introduced spheres encompassing all atoms of a subunit and skipped the check for contacts if the corresponding spheres do not overlap. Both methods combined allowed skipping up to 93 % of the checks for contacts for sample complexes of 40 subunits compared to up to 10 % of the previous implementation. We showed that the runtime of the combined method scaled linearly with the number of atoms compared to a non-linear scaling of the previous implementation We implemented a third method fixing the assignment of an orientation to secondary structure elements. We placed a three-dimensional vector in each secondary structure element and computed the angle between secondary structure elements to assign an orientation. This method sped up the runtime especially for large structures, such as the capsid of human immunodeficiency virus, for which the runtime decreased from 43 to less than 9 hours.
The feasible runtimes allowed us to investigate two data sets of MD trajectories of respiratory complex I of Thermus thermophilus that we received. The data sets differ only by whether ubiquinone is bound to the complex. We implemented a pipeline, PTGLdynamics, to compute the contacts and Complex Graphs for all time steps of the trajectories. We investigated different methods to track changes of contacts during the simulation and created a heat map put onto the three-dimensional structure visualizing the changes. We also created line plots to visualize the changes of contacts over the course of the simulation. Both visualizations helped spotting outstandingly flexible or rigid regions of the structure or time points of the simulation in which major dynamics occur.
We introduced normalizations of the edge weights of Complex Graphs for identi-fying modules and predicting the assembly pathway. The idea is to normalize the number of contacts for the number of residues of a subunit. We defined five different normalizations.
To identify structural and functional modules, we applied the Leiden graph clustering algorithm to the Complex Graphs of respiratory complex I and the respiratory supercomplex. We examined the results for the different normalizations of the weights of the Complex Graphs. The absolute edge weight produced the best result identifying three of four modules that have been defined in the literature for respiratory complex I.
We applied agglomerative hierarchical clustering to the edges of a Complex Graph to create hypotheses of the assembly pathway. The rationale was that subunits with an extensive interface in the final structure assemble early. We tested our method against two existing methods on a data set of 21 proteins with reported assembly pathways. Our prediction outperformed the other methods and ran in feasible runtimes of a few minutes at most.
We also tested our method on respiratory complex I, the respiratory supercomplex and the respiratory megacomplex. We compared the results for the different normalizations with an assembly pathway of respiratory complex I described in the literature. We transformed the assembly pathways to dendrograms and compared the predictions to the reference using the Robinson-Foulds distance and clustering information distance. We analyzed the landscape of the clustering information distance by generating random dendrograms and showed that our result is far better than expected at random. We showed in a detailed analysis that the assembly prediction using one normalization was able to capture key features of the assembly pathway that has been proposed in the literature.
In conclusion, we presented different applications of graph theory to automatically analyze the topology of protein complexes. Our programs run in feasible runtimes even for large complexes. We showed that graph-theoretic modeling of the protein structure can be used to analyze MD simulation data, identify modules of protein complexes and predict assembly pathways.
Baleen whales (Mysticeti) are a clade of highly adapted carnivorous marine mammals that can reach extremely large body sizes and feature characteristic keratinaceous baleen plates used for obligate filter feeding. From a conservation perspective, nearly all baleen whale species were hunted extensively over a roughly 100 years lasting time period that depleted many of the respective whale stocks with so far unknown consequences for e.g. their molecular viability. From an evolutionary perspective, the lack of fossil records together with conflicting molecular patterns resulted in a still unclear and debated phylogeny of modern baleen whales, particularly in rorquals (Balaenopteridae). In this dissertation, I will demonstrate the application of baleen whale genomes to tackle these open questions by using modern approaches of conservation and evolutionary genomics.
Conservation genomic aspects of baleen whales were addressed in two projects, both using whole genome data of either an Icelandic fin whale (Balaenoptera physalus) population or multiple blue whale (Balaenoptera musculus) populations to evaluate the impact of the industrial whaling era on their molecular viability. The results suggest a substantial drop in effective population size of both species but also a lack of manifestation in genotypes of the fin whale population when compared to the blue whale populations. Especially the rare and short runs of homozygosity (ROH), usually indicative for inbreeding, suggest frequent outcrossing in fin whales while all analyzed blue whale populations featured long and frequent ROH. In addition to these analyses, genome data of blue whale populations was further used to evaluate if northern hemisphere blue whales diverged into different subspecies. Population genetic and gene flow analyses showed clearly separated and well isolated populations in accordance with their assumed geographical distance. In contrast, the genome-wide divergence between all blue whale populations was low compared to other cetacean populations and to the next closely related sei whale species. Because this includes the morphologically different and well recognized pygmy blue whale subspecies, a proposal was made to equally categorize the two northern-hemisphere blue whale populations as subspecies.
Evolutionary aspects were addressed in a third project, by constructing the genome of the pygmy right whale (Caperea marginata) and testing its potential in phylogenetics and cancer research. Phylogenomic analyses using fragments of a whole-genome alignment featuring nearly all extant baleen whales, allowed the revision of the complex evolutionary relationships of rorquals by quantifying and characterizing the amounts of conflicts in early diverging branches. These relationships were further used to identify phylogenetically independent pairs of baleen whales with a maximum of diverging body size differences to compare rates of positive selection between their genomes. The results suggest nearly evenly distributed frequencies of alternative topologies which supports the representation of the early divergence of rorquals as a hard polytomy with high amounts of introgression and incomplete lineage sorting. Within the set of available genomic data, three independent pairs of baleen whales with diverging body sizes were found and comparisons of positive selection rates resulted in many potentially body size and cancer related genes. The lack of conserved selection patterns, however, suggest a more convergent evolution of size and cancer resistance like previously discussed in paleontology.
In conclusion, the application of whole genome data using methods of conservation genetics allowed for a comprehensive estimation about the molecular viability of blue and fin whales as well as an assessment of the taxonomic status of northern-hemisphere blue whale populations. The rather different results between blue and fin whales underlines the importance of genomic monitoring of baleen whales because different species show rather different molecular consequences of their potentially varying depletions. Furthermore, as showcased for the northern-hemisphere blue whale, many important isolated populations of baleen whales may still be unknown to conservation management and genome-wide comparisons will most likely contribute to overcome this under-classification problem. The application of whole genome data in evolutionary research allowed the characterization of the complex patterns of molecular conflicts within baleen whales and especially rorquals that will contribute to the still rather unclear understanding of their evolution. The here found molecular support for the idea of convergent evolution of gigantism in whales will further guide the search for molecular patterns responsible for Peto’s paradox.
Die Kraftfähigkeiten werden in ihrer Bedeutung für den Boxsport immer noch unterschätzt. Die vorliegende Arbeit soll dazu beitragen, die Akzeptanz des Krafttrainings zu erhöhen und Berührungsängste abzubauen. Die Arbeit zeigt, dass man sich auch heute noch im Hochleistungsbereich des Boxsports Fehler leistet, die die Effizienz des Trainings negativ beeinflussen können. Viele der Spitzenathleten erreichen gute Leistungen nicht wegen des guten Trainings, sondern trotz des schlechten Trainings. Besonders im Bereich des Krafttrainings bestehen deutliche Defizite. Sogar die weltbeste Nation im Amateurboxen, Kuba, hält zurzeit immer noch die Kraftausdauer für den entscheidenden Faktor im Bereich Kraft. So trainiert man hier auch immer noch mit der Methode des Zirkeltrainings an Stationen mit typischen Kraftausdauerreizen (vgl. OTANO 2006). Mit der dieser Arbeit zugrunde liegenden Studie wurden aktuelle Erkenntnisse im Bereich Kraft aufgegriffen und aufgezeigt, dass man mit Kraftausdauer und Zirkeltraining alleine nicht dem Anforderungsprofil im Boxen gerecht werden kann und das man mit verändertem Krafttraining noch deutlich effektiver sein könnte. Krafttraining sollte gerade mit jungen Boxern durchgeführt werden, um möglichen muskulären Dysbalancen und Überlastungsschäden vorzubeugen (vgl. KITTEL et al. 2008). In dieser Untersuchung mit Spitzenboxern hat sich das Krafttraining außerdem als bedeutende Leistungsreserve im Boxsport dargestellt. Es stellt eine Möglichkeit zur Anhebung der schnellkraftrelevanten neuromuskulären Leistungsfähigkeit dar, die mit sportartspezifischem Training allein nicht erreicht werden kann (vgl. SCHLUMBERGER et al 2002). Alte Vorurteile, z.B. das Krafttraining langsam mache, können mit derartigen Ergebnissen relativiert werden. An ihre Stelle soll das Wissen um die richtige Einbindung von Krafttraining in den Trainingsprozess treten und damit die Leistung der Boxsportler weiter verbessert werden. BUCHWALD schreibt bereits 1984, dass die Zielstellung, Boxschläge mit maximaler Geschwindigkeit und Härte im Ziel zu landen, nur bei entsprechender Ausbildung der dafür notwendigen konditionellen Fähigkeiten (z.B. Explosivkraft, Maximalkraft) realisiert werden kann. Dennoch wird es vornehmlich älteren Trainern schwer fallen, sich beispielsweise an die längeren interseriellen Pausen beim IK-Training zu halten. Aber längere Pausen zeugen eben nicht von Faulheit, sondern vom Wissen um physiologische Wiederherstellungsprozesse. Um internationalen Anschluss zu haben, ist gezieltes hartes Krafttraining notwendig. Diese Notwendigkeit ist von vielen Trainern im Deutschen Box Verband noch nicht erkannt. Neben vielen anderen Faktoren ist dies einer der Gründe, warum die deutschen Boxer bei der Olympiade 2008 keinen einzigen Kampf gewinnen konnten. Bei den Schwimmern und auch in anderen Sportarten werden die gleichen Fehler wie bei den Boxern gemacht. So postuliert SPIKERMANN (1993) funktionelles Krafttraining und bereitet dann die Nationalmannschaftsschwimmer lediglich mit Therabändern über Monate hinweg auf die Kraftbelastungen im Schwimmen vor (Eigenbeobachtungen am OSP Rhein-Neckar). Auch hier zeugen die Olympia-Ergebnisse von der schlechten Arbeit. ALLERBORN postuliert spezifisches Krafttraining und gibt zu Bedenken, dass das Zusatzgewicht nicht zu schwer sein dürfe, da sonst die Bewegungskoordination leide. Er übersieht dabei, dass die spezielle Bewegung mit Zusatzgewichten niemals exakt der Wettkampfbewegung entspricht. Aus diesem Grund sollte sich das Krafttraining vor allem auf allgemeine Kraftübungen reduzieren. Beim Training der einzelnen Einflussfaktoren auf die Wettkampfleistung im Boxen ergibt sich häufig ein Problem: Sie beschreiben immer nur einen Teil eines Kollektivs von Einflüssen. Bei einer ungünstigen Konstellation können manche Einflüsse andere überdecken. Für die Trainingspraxis bedeutet dies, dass wenn sich ein Trainer auf die Verbesserung eines Parameters wie die Kraftfähigkeiten konzentriert, er aber dafür andere wichtige Einflussfaktoren, wie z.B. die taktische Schulung oder die psychologische Betreuung bei einer Vorbereitung vernachlässigt, dann kommt der Kämpfer seinem Trainingsziel trotz verbesserter Kennwerte nicht näher (vgl. PFEIFFER 2001, 290). Auch in der dieser Arbeit zugrunde liegenden Studie konnte nicht das Optimum an Verbesserungen erzielt werden, weil die einzelnen Trainingsinhalte nicht gut aufeinander abgestimmt waren. Allerdings lag die Problematik hier nicht darauf, dass man sich nur auf das Krafttraining konzentrierte und andere Trainingsinhalte vernachlässigte, sondern man überforderte die Sportler vielfach indem man verschiedenste Trainingsinhalte konzeptlos vermischte. So stellte auch SCHLUMBERGER (2000) in zwei Studien fest, dass ausgeprägtere Explosivkraftverbesserungen dadurch verhindert worden sein könnten, dass das neuromuskuläre System durch Trainingsreize außerhalb der Studien zu vielen konkurrierenden (anaerob-ermüdenden) Reizen ausgesetzt gewesen sein könnte (vgl. auch HÄKKINEN 1988). Die von ZATSIORSKY et al. (2008) beschriebene Gefahr, dass Sportler, die mit maximalen Lasten trainieren, leicht ‚ausbrennen‘ können, kann durch diese Studie nicht bestätigt werden. Das Gegenteil war der Fall – Maximalkrafttraining wirkte stark motivierend auf die Probanden und hatte so einen positiven Einfluss auf die gesamte Trainingseinstellung. Lediglich nach Krafttrainingseinheiten mit submaximalen Lasten zu Beginn der Krafttrainingsperiode klagten die Probanden anfänglich über Muskelschmerzen durch die ungewohnte Belastung. Überlegungen, wonach Schnelligkeitsleistungen gegen geringe äußere Widerstände unabhängig sind von der Maximalkraft (ALLERBORN; RÖTHIG / GRÖSSING) konnten mit dieser Studie widerlegt werden. Richtig ist, dass der Einfluss bei leichten Widerständen ab- und bei schweren Widerständen zunimmt (BÜHRLE 1985), allerdings wird er auch bei geringsten Widerständen vorhanden sein. Falsch sind Aussagen von ALLERBORN (2000, 62), wonach Maximalkrafttraining an sich nicht schneller oder schnellkräftiger macht. Es hat sich auch die Aussage von BÜHRLE et al. (1982) bestätigt, wonach Sportler, die über ein hohes koordinatives Niveau verfügen, Zuwächse der Maximalkraft besonders effektiv in Bewegungsschnelligkeit umsetzen können. Es erscheint in der Vorbereitung auf einen Wettkampf sinnvoll, neben dem Training mit submaximalen und maximalen Kontraktionen der in Untersuchungen von WILSON et al. (1993), SCHMIDTBLEICHER / HEMMLING (1994) und SCHLUMBERGER (2000) geforderten weiteren Explosivkraftbetonung mit ballistischen Kraftübungen und Sprüngen im DVZ gerecht zu werden. Die Wahrscheinlichkeit des Transfers der neuromuskulären Anpassungen auf dynamische Schnellkraftsituationen im koordinativen Muster einer bestimmten Zielbewegung könnte so möglicherweise gesteigert werden. Detaillierte Belastungsvorgaben für ein derartiges Training fehlen allerdings häufig (vgl. SCHLUMBERGER (2000). Allerdings kann aus Sicht der neuromuskulären Leistungsbereitschaft ein Training mit maximalen Kontraktionen und reaktives Sprungkrafttraining mit einem Mindestabstand von drei Stunden am gleichen Tag durchgeführt werden. Nach einer typischen Hypertrophieeinheit sollten nach SCHMIDTBLEICHER / FRICK (1998) mindestens 72 Stunden bis zum Sprungkraftraining liegen.
Glioblastoma multiforme accounts for more than 80% of all malignant gliomas in adults and a minor fraction of new annual cases occurs in children. In the last decades, research shed light onto the molecular patterns underlying human malignancies which resulted in a better understanding of the disease and finally an improved long term survival for cancer patients. However, malignancies of the central nervous system and especially glioblastomas are still related to poor outcomes with median survivals of less than 6 months despite extensive surgery, chemotherapy and radiation. Hence, a better understanding of the molecular mechanism driving and sustaining cancerous mutations in glioblastomas is crucial for the development of targeted therapies. Apoptosis, a form of programmed cell death, is an important feature of eukaryotic cells and crucial for the maintenance of multicellular homeostasis. Because apoptosis is a highly complex and tightly regulated signaling pathway, resisting apoptotic stimuli and avoiding cell death is a hallmark of the cancerous transformation of cells. Hence, targeting molecular structures to reestablish apoptotic signaling in tumor cells is a promising approach for the treatment of malignancies. Smac mimetics are a group of small molecular protein inhibitors that structurally derive from an intracellular protein termed Smac and selectively block Inhibitor of apoptosis (IAP) proteins, which are often aberrantly expressed in cancer. Several studies confirmed the antitumoral effects of Smac mimetics in different human malignancies, including glioblastoma, and give rationales for the development of potent Smac mimetics and Smac mimetic-based combination protocols. This study investigates the antitumoral activity of the bivalent Smac mimetic BV6 in combination with Interferon α. Latter is a well characterized cytokine with an essential role in immunity, cell differentiation and apoptosis. This study further aims to address the molecular mechanisms underlying the antitumoral activity of the combination treatment by using well established molecular cell death assays, flow cytometry, western blot analysis, genetic approaches and selective pharmacological inhibition. Since different Smac mimetics and Smac mimetic-based combination therapies are currently under clinical evaluations, findings of this study may have broad implications for the application of Smac mimetics as clinical cancer therapeutics.
Das Prinzip der endovaskulären Therapie von Aneurysmen mit Platinspiralen hat sich seit seiner Einführung durch Guglielmi 1991 immer mehr als alternatives Verfahren zum neurochirurgischen Clipping etabliert. Insbesondere bei Aneurysmen, die durch den neurochirurgischen Zugang nur schwer zu erreichen sind, hat sich diese Therapieoption bewährt. Neben der Lage spielen auch Größe und Form bei der Entscheidung für das Coiling eine wichtige Rolle. Es ist technisch anspruchsvoll, breitbasige oder besonders kleine Aneurysmen durch dieses Verfahren auszuschalten. Angesichts der aktuellen Datenlage ist es nicht immer möglich, eine zweifelsfreie Entscheidung zu treffen, ob und wie betroffene Patienten bestmöglich behandelt werden sollten. Insbesondere Fragen zur Behandlung und zu Komplikationen bei Aneurysmen ≤ 3 mm sind nicht hinreichend beantwortet, da diese nur in wenigen Studien Gegenstand der Analyse sind. Ziel der vorliegenden Arbeit war es, klinische und bildgebende Ergebnisse von Patienten, die im Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität Frankfurt am Main durch eine endovaskuläre Intervention behandelt wurden, retrospektiv zu analysieren. Insbesondere wurde ein Schwerpunkt auf die Untersuchung der Komplikationsraten und der Aneurysmarupturen gelegt. Dies dient einer erweiterten Einschätzung von Risiko und Nutzen dieser Therapieoption, um eine bestmögliche Beratung und Behandlung der betroffenen Patienten zu gewährleisten.
In der vorliegenden Arbeit wurden 637 endovaskuläre Interventionen betrachtet, die am Institut für Neuroradiologie des Klinikum der Johann Wolfgang Goethe-Universität zwischen Februar 1999 und März 2011 durchgeführt wurden. In diesem Untersuchungszeitraum von 12 Jahren konnten 47 Patienten mit einem Aneurysma ≤ 3 mm in die Studie eingeschlossen werden. Es erfolgte eine retrospektive Datenerhebung mit Hilfe von Krankenakten, radiologischen Befunden und Angiographie-Dokumentationsprotokollen. Die Zusammensetzung des Patientenkollektivs war vergleichbar mit der der bisherigen Literatur. Das Durchschnittsalter des Patientenkollektivs betrug 55 Jahre. 85 % der Patienten waren Frauen. Bei der Häufigkeit des Auftretens an bestimmten Gefäßlokalisationen konnte ein geringer Unterschied festgestellt werden. Während bei ähnlichen Studien der Großteil der Aneurysmen an der ACI gefunden wurde, war in der vorliegenden Arbeit die AcomA am häufigsten betroffen, gefolgt von der ACI. In Bezug auf die Fehlschlagraten sind die Ergebnisse heterogen. In der vorliegenden Studie war es bei 17 % der behandelten Patienten nicht möglich, das Einbringen einer Platinspirale erfolgreich abzuschließen. Ein kompletter Aneurysmaverschluss erfolgte bei 55 % der Patienten. Bei 28 % der Fälle blieb nach der Intervention ein minimaler Halsrest bestehen. Die allgemeine Komplikationsrate betrug 12,8 %. Zu einer durch die Intervention ausgelösten Ruptur kam es in zwei Fällen (4,3 %), wobei dieser Anteil im mittleren Bereich der in der aktuellen Literatur beschriebenen Rupturraten von 0 % bis 11,7 % liegt. Für die Beurteilung des Therapieerfolgs spielt die Verfügbarkeit von Nachkontrollen eine wichtige Rolle. In der vorliegenden Arbeit war es möglich, in 87 % der Fälle Verlaufskontrollen durchzuführen, was Ergebnissen der Literatur entspricht. Die Wiederbehandlungsrate war mit 4,3 % vergleichsweise niedrig. Die Bildung eines Rezidivaneurysmas konnte in einem Fall beobachtet werden. 59 % der Patienten wiesen präoperativ einen Hunt und Hess Grad von 0 bis 2 auf, während es in anderen Arbeiten bis zu 87 % der Patienten waren. Grad 3 lag bei 15 % der Patienten vor, schwer betroffen waren 15 % mit einem Hunt und Hess Grad von 4 und 11 % mit einem von Grad 5. 55,3 % der in der vorliegenden Studie betrachteten Patienten konnten am Ende des Beobachtungszeitraums nach Einschätzung mittels mRS ihren Alltag ohne fremde Hilfe bewältigen (Stadien 0, 1 und 2). 34,0 % der Patienten benötigten fremde Hilfe und 10,9 % verstarben an den Folgen der SAB. Im Gegensatz dazu konnte in anderen Arbeiten ein mRS-Grad von 0-2 in mehr als 75 % gefunden werden. Dies bestärkt die Annahmen, dass ein primär niedriger Hunt und Hess Grad mit einem besseren und ein hoher Hunt und Hess Grad mit einem schlechteren klinischen Verlauf assoziiert sein könnte.
Durch die geringe Größe der Stichprobe und die retrospektive Datenanalyse der vorliegenden Arbeit ist es nicht möglich, zuverlässige allgemein gültige Behandlungsempfehlungen abzuleiten. Hier wurde das eigene Patientenkollektiv detailliert analysiert und die Ergebnisse wurden mit ähnlichen Publikationen verglichen. Weitere prospektiv geplante Studien sind sinnvoll.
Aus der zusammenfassenden Betrachtung der Ergebnisse lässt sich schließen, dass mit den momentan verfügbaren Mitteln bei ausreichender Erfahrung des behandelnden Neuroradiologen eine relativ sichere endovaskuläre Behandlung von sehr kleinen Aneurysmen möglich ist. Neben der Erfahrenheit des interventionellen Neuroradiologen kann die Weiterentwicklung der eingesetzten Materialien wie Coils, Stents, Ballons und Mikrokatheter zur Minimierung des Komplikationsrisikos beitragen.
Verfahren zur elektrochemischen Messung von Stickstoffmonoxid und S-Nitrosothiolen in Flüssigkeiten
(2001)
Stickstoffmonoxid (NO) ist in den letzten Jahren als Kreislaufregulator und biologischer Botenstoff in den Mittelpunkt des Interesses gerückt. Inzwischen gilt als sicher, dass NO an vielen Schlüsselstellen, nicht nur in der Kreislaufregulation, aber dort besonders, eine prominente Rolle spielt. Das Endothel als disseminiertes Organ betrachtet ist als Produktionsort des zu Beginn der Forschungen phänomenologisch ,,endothelium derived relaxing factor" genannten NO scheinbar von größerer Bedeutung, als zunächst angenommen. Anstelle einer einfachen Gefäßauskleidung ist das Endothel Regulator vieler wichtiger Prozesse. Diskutierte Wirkungen reichen vom septischen Kreislaufversagen bei überschießender NO-Produktion, bis zur Atherosklerose bei gestörter Endothelfunktion mit verminderter NO-Produktion. Es gibt hier ,,gute" und ,,böse" Wirkungen, so das hier von einer Janusköpfigkeit, also Doppelgesichtigkeit, gesprochen wird. NO wird hier jeweils eine Schlüsselrolle als Botenstoff und Effektor zugewiesen. Bisher gibt es aber keine praktikablen Verfahren, um die effektive NO-Produktion zeitnah und in vivo zu quantifizieren. In der vorliegenden Arbeit ist im Anschluß an vorbestehenden Überlegungen und Verfahren eine Methode entwickelt worden, mit deren Hilfe Rückschlüsse auf die jeweilige Produktion und den Plasmaspiegel von NO gezogen werden können. Stickstoffmonoxid hat eine Halbwertszeit von wenigen Sekunden im Plasma. Ein wichtiges Stoffwechselprodukt aus dem Abbau des freien NO sind S-Nitrosothiole. Freies NO geht eine Verbindung mit Thiolgruppen von Plasmaproteinen ein. Diese gebundene Form von NO ist relativ stabil und gilt als Plasmaspeicher von NO. Es kann aus dieser Verbindung wieder herausgelöst werden und liegt dann wieder als freies NO vor. In der vorliegenden Arbeit werden die Grundlagen geschaffen für ein Verfahren, mit dem der Plasmaspiegel von S-Nitrosothiolen bestimmt, und Rückschlüsse auf die NO Produktion gezogen werden können. Die Methode basiert auf dem Umstand, dass man mittels Metallionen, wie beispielsweise Kupferionen, S-Nitrosothiole zur Dekomposition bringen kann. Das freigesetzte NO wurde dann mittels einer amperometrischen NO-selektiven Sonde gemessen. Die zu erwartenden Konzentrationen sind sehr gering und einer verlässlichen Messung nur bedingt zugänglich, da die Abspaltung von NO aus hochmolekularen S-Nitrosothiolen, wie dem S-Nitrosoalbumim, nur sehr langsam abläuft. Günstiger ist die Zerfallskinetik von niedermolekularen S-Nitrosoverbindungen. Daher wird der Zwischenschritt der Transnitrosylierung, der Übertragung der Nitrosylgruppe von Albumin auf einen niedermolekularen Baustein mit einer Nitrosogruppe, eingeschaltet. Die Konzentrationen des zu messenden NO bleiben aber sehr gering, so dass die Minimierung der Störeinflüsse der Methodik einen großen Teil der Arbeit einnimmt. Es konnte in dieser Arbeit nachgewiesen werden, dass S-Nitrosoalbumin mittels des beschriebenen Verfahrens quantitativ bestimmbar ist. Eine Übertragung des Verfahrens auf Messungen im Blutplasma wird der Gegenstand weiterer Forschungen sein.
We investigate multivariate Laurent polynomials f \in \C[\mathbf{z}^{\pm 1}] = \C[z_1^{\pm 1},\ldots,z_n^{\pm 1}] with varieties \mathcal{V}(f) restricted to the algebraic torus (\C^*)^n = (\C \setminus \{0\})^n. For such Laurent polynomials f one defines the amoeba \mathcal{A}(f) of f as the image of the variety \mathcal{V}(f) under the \Log-map \Log : (\C^*)^n \to \R^n, (z_1,\ldots,z_n) \mapsto (\log|z_1|, \ldots, \log|z_n|). I.e., the amoeba \mathcal{A}(f) is the projection of the variety \mathcal{V}(f) on its (componentwise logarithmized) absolute values. Amoebas were first defined in 1994 by Gelfand, Kapranov and Zelevinksy. Amoeba theory has been strongly developed since the beginning of the new century. It is related to various mathematical subjects, e.g., complex analysis or real algebraic curves. In particular, amoeba theory can be understood as a natural connection between algebraic and tropical geometry.
In this thesis we investigate the geometry, topology and methods for the approximation of amoebas.
Let \C^A denote the space of all Laurent polynomials with a given, finite support set A \subset \Z^n and coefficients in \C^*. It is well known that, in general, the existence of specific complement components of the amoebas \mathcal{A}(f) for f \in \C^A depends on the choice of coefficients of f. One prominent key problem is to provide bounds on the coefficients in order to guarantee the existence of certain complement components. A second key problem is the question whether the set U_\alpha^A \subseteq \C^A of all polynomials whose amoeba has a complement component of order \alpha \in \conv(A) \cap \Z^n is always connected.
We prove such (upper and lower) bounds for multivariate Laurent polynomials supported on a circuit. If the support set A \subset \Z^n satisfies some additional barycentric condition, we can even give an exact description of the particular sets U_\alpha^A and, especially, prove that they are path-connected.
For the univariate case of polynomials supported on a circuit, i.e., trinomials f = z^{s+t} + p z^t + q (with p,q \in \C^*), we show that a couple of classical questions from the late 19th / early 20th century regarding the connection between the coefficients and the roots of trinomials can be traced back to questions in amoeba theory. This yields nice geometrical and topological counterparts for classical algebraic results. We show for example that a trinomial has a root of a certain, given modulus if and only if the coefficient p is located on a particular hypotrochoid curve. Furthermore, there exist two roots with the same modulus if and only if the coefficient p is located on a particular 1-fan. This local description of the configuration space \C^A yields in particular that all sets U_\alpha^A for \alpha \in \{0,1,\ldots,s+t\} \setminus \{t\} are connected but not simply connected.
We show that for a given lattice polytope P the set of all configuration spaces \C^A of amoebas with \conv(A) = P is a boolean lattice with respect to some order relation \sqsubseteq induced by the set theoretic order relation \subseteq. This boolean lattice turns out to have some nice structural properties and gives in particular an independent motivation for Passare's and Rullgard's conjecture about solidness of amoebas of maximally sparse polynomials. We prove this conjecture for special instances of support sets.
A further key problem in the theory of amoebas is the description of their boundaries. Obviously, every boundary point \mathbf{w} \in \partial \mathcal{A}(f) is the image of a critical point under the \Log-map (where \mathcal{V}(f) is supposed to be non-singular here). Mikhalkin showed that this is equivalent to the fact that there exists a point in the intersection of the variety \mathcal{V}(f) and the fiber \F_{\mathbf{w}} of \mathbf{w} (w.r.t. the \Log-map), which has a (projective) real image under the logarithmic Gauss map. We strengthen this result by showing that a point \mathbf{w} may only be contained in the boundary of \mathcal{A}(f), if every point in the intersection of \mathcal{V}(f) and \F_{\mathbf{w}} has a (projective) real image under the logarithmic Gauss map.
With respect to the approximation of amoebas one is in particular interested in deciding membership, i.e., whether a given point \mathbf{w} \in \R^n is contained in a given amoeba \mathcal{A}(f). We show that this problem can be traced back to a semidefinite optimization problem (SDP), basically via usage of the Real Nullstellensatz. This SDP can be implemented and solved with standard software (we use SOSTools and SeDuMi here). As main theoretic result we show that, from the complexity point of view, our approach is at least as good as Purbhoo's approximation process (which is state of the art).