Universitätspublikationen
Refine
Year of publication
Document Type
- Doctoral Thesis (1709) (remove)
Language
- German (1709) (remove)
Has Fulltext
- yes (1709)
Is part of the Bibliography
- no (1709)
Keywords
- Schmerz (8)
- Grundschule (5)
- HIV (5)
- RNA (5)
- Depression (4)
- Digitalisierung (4)
- Polytrauma (4)
- Prostatakarzinom (4)
- Schmerzforschung (4)
- Spracherwerb (4)
Institute
- Medizin (699)
- Biowissenschaften (171)
- Biochemie und Chemie (131)
- Biochemie, Chemie und Pharmazie (96)
- Pharmazie (91)
- Physik (91)
- Gesellschaftswissenschaften (46)
- Erziehungswissenschaften (37)
- Neuere Philologien (37)
- Psychologie (36)
Auf dem Weg zur multikulturellen Gesellschaft besteht Bedarf, die psychologischen Komponenten verschiedener Migrantengruppen zu erfassen. In Deutschland sind 83.598 Mitmenschen mit chinesischer Staatsbürgerschaft verzeichnet (StatBA, 2009). Werden die Eingebürgerten Übersee-Chinesen mit einbezogen, beläuft sich die Zahl an gesamtchinesischen Mitmenschen auf 135.000 (OCAC, 2009). Als einzige Anhaltspunkte über im Ausland lebende Chinesen dienen Studien aus dem angloamerikanischen Sprachraum. Menschen chinesischen Ursprungs mit westlichem Intellekt erhalten dort die Bezeichnung „Banane“, welche eine gelbe Hülle mit einem weißen Inneren illustriert. Die vorliegende Studie beschäftigt sich erstmalig mit den psychologischen Komponenten der in Deutschland lebenden chinesischen Mitbürger. Welchen Einfluss nimmt die Anpassung an das europäische Umfeld gekoppelt mit der chinesischen Internalisierung auf erinnertes elterliches Erziehungsverhalten, Persönlichkeitsstruktur, Erleben von Emotionen und Körpererleben? 154 chinesisch-stämmige Studierende aus ganz Deutschland wurden für verschiedene standardisierte psychometrische Testverfahren rekrutiert. Ein eigens konzipierter Fragebogen diente zur Messung der asiatischen und europäischen Identität. Wie vorherige Studien (Chao & Aque, 2009) aussagten, zeigten sich in der vorliegenden Stichprobe Züge des autoritativen Erziehungsstils. Im FEE (Fragebogen zum erinnertenelterlichen Erziehungsverhalten) (Schumacher, Eisemann, & Brähler, 1999) erhielten die Übersee-chinesischen Probanden neben einer höheren mütterlichen Strenge auch höhere Werte in der elterlichen Kontrolle und Überbehütung als die deutsche Normstichprobe. Je mehr mütterliche „Ablehnung und Strafe“ und elterliche „Kontrolle und Überbehütung“ die Probanden perzipierten, desto chinesischer sieht der heutige Lebensstil aus. Kongruent mit den Ergebnissen von McCrae et al. (1998) schnitten Übersee-Chinesen im NEO-FFI (Borkenau & Ostendorf, 1993) mit niedrigeren Werten in der Offenheit und höheren Werten in der Verträglichkeit ab. Anders als bei Eap et al. (2008) zeigten Chinesen in Deutschland höhere Werte in der Gewissenhaftigkeit und Extraversion. Diese hingegen korrelierten positiv mit der europäischen Identität. In der MSWS (Multidimensionale Selbstwertskala) (Schütz & Sellin, 2006) erzielten die Übersee-Chinesen einen niedrigeren allgemeinen Selbstwert als die deutsche Normgruppe. Außerdem empfanden die Übersee-Chinesen weniger eigene Selbstwertschätzung im sozialen Kontakt zu anderen, im Umgang mit Kritik und im leistungsbezogenen Bereich. Überraschenderweise erhielten die Probanden einen höheren Selbstwert in der Sportlichkeit. Die SEE (Skalen zu Erleben von Emotionen) (Behr & Becker, 2004) zeigten, dass die körperliche Symbolisierung von Gefühlen bei der chinesischen Stichprobe niedriger war als bei der deutschen Norm. Dies hing mit der Ausprägung der europäischen Identität zusammen. Negativ korrelierte die europäische Identität auch mit der Regulation von Emotionen. Im FBeK (Fragebogen zur Beurteilung des eigenen Körpers) (Strauß & Richter-Appelt,1995) ging das Körpererleben der Übersee-Chinesen mit weniger Selbstbewusstsein für die eigene Attraktivität einher. Je mehr die Lebensart zum Asiatischen tendierte, desto weniger äußerte sich die Akzentuierung des äußeren Erscheinungsbildes und desto höher erschien die Unsicherheit. Zusammenfassend weisen die Ergebnisse darauf hin, dass die Auslebung einer bikulturellen Identität Folgen für die psychologische Entwicklung eines Individuums mit sich bringen, welche beispielsweise für die Arbeit bei Patienten im psychotherapeutischen Prozess mit berücksichtigt werden sollten.
Forschungsarbeiten sowohl zum IT-Zweig als Leitbranche der Digitalisierung als auch zur gesundheitsfördernden Gestaltung neuer Arbeitswelten haben eine hohe gesellschaftliche Relevanz. Die von der Digitalisierung ausgehenden Veränderungen sind in der Arbeitswelt allgegenwärtig. Trotz einer anfänglichen Humanisierungsvermutung mit Blick auf hoch qualifizierte Wissensarbeit in flexiblen Arbeitsstrukturen zeigen neue Forschungsergebnisse eine Zunahme gesundheitlicher Belastungen in der IT-Branche. Diese Belastungskonstellation erfordert neue Gestaltungsansätze zur Gesundheitsbildung, weil flexibel arbeitende Beschäftigte mit bestehenden klassischen Maßnahmen der betrieblichen Gesundheitsförderung schwer oder gar nicht zu erreichen sind.
Ziel der Arbeit ist die lösungsorientierte Erstellung eines branchen- und online-basierten Präventionskonzepts für alle IT-Beschäftigte. Basierend auf dem Modell der Salutogenese wird ein Training entwickelt, das sich auf die Stärkung von personalen, organisationalen und sozialen Gesundheitsressourcen fokussiert.
Im Mittelpunkt der vorliegenden Arbeit, die der Kategorie der didaktischen Entwicklungsforschung (Johannes Weinberg) zuzuordnen ist, steht die Konzeption und Entwicklung eines Lernprogramms. Als Rahmenmodell dient die gestaltungsorientierte Mediendidaktik unter Berücksichtigung didaktischer Eckpunkte. Das Online-Lernangebot ist in acht Lerneinheiten aufgeteilt. Es werden Lerninhalte zum Arbeits- und Gesundheitsschutz mediendidaktisch aufbereitet und den IT-Beschäftigten und Führungskräften auf der Lernplattform Moodle zur Verfügung gestellt. (Eine ursprünglich angedachte Wirkungsmessung der Implementierung des Lernprogramms im Betrieb konnte pandemiebedingt nicht durchgeführt werden.)
Die weiterbildungsbezogene, betriebs- sowie organisationspädagogische Überlegungen aufgreifende Konzeption ist ein wichtiger Baustein im Rahmen einer Gesamtstrategie des betrieblichen Gesundheitsmanagements. Die präsentierten Handlungshilfen und elektronische Unterweisungen sind auf andere Branchen übertragbar.
Die erstellte Lernumgebung ist kein finales „Produkt“, sondern ein kontinuierlich zu optimierendes Entwicklungsvorhaben, was neben einer noch durchzuführenden Evaluation weitere Möglichkeiten zur Verbesserung der Gesundheit in der digital vernetzten Arbeitswelt eröffnet, um das Thema Gesundheitsbildung verstärkt in den betrieblichen Alltag zu integrieren.
Mit ihren so genannten Linsenkästen gelang Mary Bauermeister Anfang der 1960er-Jahre der Durchbruch auf dem New Yorker Kunstmarkt. Bis heute sind die fragilen, leuchtenden Objekte aus Holz, Glas, Leinwand und Papier das Alleinstellungsmerkmal der Künstlerin. Die hier vorliegende Dissertationsschrift erläutert die konsequente Entwicklung der Linsenkästen aus dem Frühwerk und unternimmt erstmals eine stilistische Einordnung in den Kunstkontext der 1960er-Jahre. Dabei wird deutlich, dass Bauermeister mehr den Künstlern der Klassischen Moderne (Duchamp, Schwitters, Klee, Kandinsky) verpflichtet ist denn ihren Zeitgenossen im Rheinland oder in der Kunstmetropole New York.
In diesem Jahr feiert die Bundesrepublik fünfundzwanzig Jahre Deutsche Einheit. Ein vereintes Deutschland ist für jüngere Generationen bereits selbstverständlich und selbst bei vielen Älteren sind die brisanten Entwicklungen und historischen wie geopolitischen Veränderungen dieser Zeit bereits in Vergessenheit geraten. Die meisten Deutschen nehmen ein Leben in einem geeinten Deutschland als selbstverständlich hin! Wenn man sich jedoch mit den Umbrüchen im Herbst 1989 beschäftigt und die damalige Situation analysiert, wird einem schnell bewusst, dass es sich bei dem friedlichen Mauerfall und der anschließenden Vereinigung der beiden deutschen Staaten um ein einschneidendes, ja epochales Ereignis handelt. Nichts von dem, was heute als selbstverständlich und gegeben angesehen wird, war damals absehbar noch zu erwarten. Erst ein politischer Dreiklang – bestehend aus den vier Siegermächten sowie der Bundesregierung und den Resten der politischen Klasse der DDR unter Einflussnahme der dortigen Friedensbewegung – ermöglichte die Umsetzung der damaligen „Road-Map“. Der von Helmut Kohl präsentierte Zehn-Punkte-Plan muss im Nachhinein als vorentscheidender Schritt hin zur Wiedervereinigung betrachtet werden. Das Programm symbolisierte in gewisser Weise auch das Ende der bisherigen Bonner Deutschlandpolitik. Zudem lieferte es, so scheint es zumindest im Nachhinein, die politische Blau-Pause für einen geordneten Zusammenschluss zwischen Ost und West und trug somit de facto zur friedlichen Abwicklung der implodierten DDR bei. Im Zentrum meiner Dissertation stehen nicht die einzelnen Schritte hin zur Wiedervereinigung am 3. Oktober 1990 oder der Weg dorthin – dies ist in vielen Darstellungen bereits erörtert worden. Mein Interesse gilt der Beurteilung der Deutschlandpolitik der Regierung Kohl in ausgewählten Printmedien, um so zu zeigen, wie die öffentliche Resonanz auf einzelne deutschlandpolitische Schritte des neuen Kanzlers war und wie sein Vorgehen in dieser Frage beurteilt wurde. Hiermit soll nicht nur das Meinungsspektrum zu diesem Thema abgesteckt, sondern auch danach gefragt werden, wieweit sich die Beurteilung Kohls im Untersuchungszeitraum verändert hat. Herangezogen wurden 5 Leitmedien im Printbereich: 1. Die Welt 2. Frankfurter Allgemeine Zeitung (FAZ) 3. Süddeutsche Zeitung (SZ) 4. Die Zeit 5. Der Spiegel Wert gelegt wurde darauf, ein breites Meinungsspektrum zu repräsentieren. Bei allen Vorbehalten gegen derartige Etikettierungen können die herangezogenen Printmedien als national-konservativ (Die Welt), bürgerlich-konservativ (FAZ), sozial-liberal (SZ), bürgerlich-liberal (Die Zeit) bis links-alternativ (Der Spiegel) bezeichnet werden. Damals wie heute gelten sie als Leitmedien, was sich nicht nur in ihrer Auflage und Verbreitung, sondern auch in der Qualität und Differenziertheit ihrer Berichterstattung festmachen lässt. Als Untersuchungszeitraum habe ich die Zeit vom Amtsantritt des neuen Kanzlers am 1. Oktober 1982 bis zum Zehn-Punkte-Plan am 28. November 1989 definiert. Nach Kohls Auftritt im Deutschen Bundestag an diesem Tag traten die konkreten Schritte hin zur deutschen Einheit in den Vordergrund, was dann doch eine strategische und inhaltliche Veränderung bedeutete. Deshalb wird der weitere Weg hin zum 3. Oktober 1990 aus der Untersuchung ausgeklammert. Um das Thema wissenschaftlich handhabbar zu machen, habe ich fünf Ereignisse in den Fokus meiner Untersuchung gestellt: 1. Der Kanzlerwechsel von Helmut Schmidt zu Helmut Kohl am 1. Oktober 1982 durch ein konstruktives Misstrauensvotum. Wie beurteilten die fünf Printmedien diesen Schritt und wie schätzten sie Kohls deutschlandpolitische Agenda ein? 2. Der Milliardenkredit der BRD an die DDR, der der Stabilisierung der maroden DDR-Wirtschaft dienen sollte und von Franz-Josef Strauß eingefädelt wurde. Wie wurde diese spektakuläre Aktion in den untersuchten Zeitungen eingeschätzt, insbesondere die Rolle des bayerischen Ministerpräsidenten, der ein scharfer Kritiker der sozialliberalen Deutschlandpolitik gewesen war? 3. Helmut Kohls Besuch in Moskau vom 4. Juli bis zum 7. Juli 1983, also der offizielle Antrittsbesuch des neuen Kanzlers in der Sowjetunion. Wie sah man sein Auftreten dort? 4. Der Besuch von Erich Honecker in der BRD vom 7. September bis zum 11. September 1987, ein Höhepunkt der bisherigen Deutschlandpolitik – und zugleich ein Wendepunkt. Wie wurde die Tatsache dieses Staatsbesuchs beurteilt, aber auch das Agieren des Kanzlers bei dieser Visite? 5. Der Zehn-Punkte-Plan, der am 28. November 1989 im Deutschen Bundestag in Bonn von Helmut Kohl verkündigt wurde.
Nachdem zunächst Ziel und Forschungsgegenstand dieses Aufsatzes erläutert (1.2.1) wurden, werden die Definitionen der Leitbilder verdeutlicht, der in diesem Aufsatz eine zentrale Rolle spielen (1.2.2). Danach werden die vorangegangenen Studien über die „Leitbilder“ der deutschen Außenpolitik zusammengefasst und die Fragestellung dieser Arbeit diskutiert (1.2.3). Da ein Ziel dieser Arbeit die Verdeutlichung der Kontinuitätsund Wandelseite des „Leitbildes“ ist, das die deutsche Außenpolitik in der Realität verfolgt, fasst der Verfasser schließlich die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ zusammen. Hier wird der Verfasser die Debatte über „Kontinuität und Wandel der deutschen Außenpolitik“ mit der Debatte über „Leitbilder“ der deutschen Außenpolitik konvergieren. Dadurch wird der Verfasser verdeutlichen, dass sich im „Leitbild“ die Essenz der deutschen Außenpolitik widerspiegelt (1.2.4).
In dieser Dissertation wird die diskursive Konstruktion der Übersetzer bzw. der Übersetzung in ausgewählten Chroniken der Eroberung Lateinamerikas untersucht, welche von Autoren unterschiedlicher Herkunft im ungefähren Zeitraum zwischen 1515 bis 1615 verfasst wurden. Im Rahmen einer historisch-deskriptiven Analyse wird erforscht, welchem Zweck die vorgefundenen sprachlichen Aussagen zur Übersetzungsthematik in den verschiedenen Chroniken dienen. Die Analyse zeigt deutlich, dass nicht nur die Erwähnung, sondern auch die Omission der Aussagen zu den Übersetzern bzw. den Übersetzungsprozessen eine wichtige Rolle einnimmt und Brüche und Widersprüche in den einzelnen Darstellungen hervortreten lässt. Es wird deutlich, dass Übersetzer und Übersetzung, aber auch deren Omission, nicht nur der Legitimierung bzw. Humanisierung der Eroberungen dienen, sondern dass vor allem auch die Figur des Übersetzers zum Zweck der Identitätskonstruktion (sowohl der eigenen als auch der des anderen), der Herstellung sowie Aufrechterhaltung asymmetrischer Dominanzverhältnisse und der Konstruktion bzw. Bestätigung bereits bestehender Geschlechterrollen funktionalisiert wird. Es wird gezeigt, dass „Übersetzung“, welche oftmals als völkerverbindendes Mittel der Kommunikation dargestellt wird, vor allem im Kontext der Eroberung nicht unbedingt ein friedliches Instrument darstellt, sondern enormes Macht- und Gewaltpotential in sich birgt. Außerdem gehen aus den Analysen die Konturen einer Forschungslücke hervor, die noch weitere Untersuchen ermöglicht, nicht nur in Bezug auf den Bereich des oralen Übersetzungsprozesses, sondern vor allem auch, was den Bereich der kulturellen Übersetzung betrifft.
Die Dissertation „“Man at the Crossroads“ - “El Hombre Controlador del Universo“ - Diego Rivera zwischen New York und Mexiko 1933/34“, vorgelegt von Elena Stiehr im Fachbereich 9 am Kunstgeschichtlichen Institut der Johann Wolfgang Goethe-Universität, Frankfurt unter Betreuung von Prof. Dr. Hans Aurenhammer und Dr. Antje Krause-Wahl, leistet das erste Mal in der Forschung eine umfangreiche Untersuchung der Zweitversion des Freskos „Man at the Crossroads“. Diese realisierte Diego Rivera 1934 unter dem Titel „El Hombre Controlador del Universo“ etwa ein halbes Jahr nachdem „Man at the Crossroads“ im Rockefeller Center, New York aufgrund seines kommunistischen Bildinhalts zerstört wurde. Ziel der Untersuchung ist es, die verschiedenen Kriterien aufzuzeigen, unter denen Rivera die mexikanische Version verwirklichte, die noch heute im Palacio de Bellas Artes in Mexiko-Stadt zu sehen ist. So soll dargestellt werden, dass sich das Fresko trotz seines auf den ersten Blick hin ähnlichen Erscheinungsbildes prägnant von der Erstversion unterscheidet. Darauf weist auch bereits die Umbenennung des Werkes hin. Gleichzeitig jedoch ist „El Hombre Controlador del Universo“ ganz und gar amerikanisch. Durch die detaillierte Schilderung der Realisierung von „Man at the Crossroads“ von März bis Mai 1933 anhand von Primärquellen, wie das Tagebuch von Riveras Assistentin Lucienne Bloch und Berichte aus der amerikanischen Presse, der Analyse, ob und wie Rivera die Richtlinien des Kunstprogramms des Rockefeller Center befolgte und durch Vergleiche mit Werken anderer Künstler, die wie Rivera im Auftrag der Rockefellers arbeiteten, wird das New Yorker Erbe in „El Hombre Controlador del Universo“ aufgezeigt. Maßgeblich dafür ist überraschenderweise jedoch nicht die Wiederholung der amerikanischen Motive aus der Erstversion, wie der US-amerikanischen Kapitalistenklasse, der desolaten Situation der USamerikanischen Arbeiter und Bauern im Zuge der Weltwirtschaftskrise und der technischen und naturwissenschaftlichen Errungenschaften, die erstmals in der Forschung identifiziert und kontextualisiert werden, sondern vor allem die Integration neuer Motive, die fest mit den USA verbunden sind. So erlebte Rivera in New York einen intensiven Austausch mit den USamerikanischen Trotzkisten Max Shachtman und James Cannon, die der Künstler nun in der Zweitversion zusammen mit Trotzki selbst und dem Aufruf zur IV. Internationalen für die Bekämpfung des Kapitalismus, Imperialismus und Faschismus darstellt. In diesem Kontext steht im Bild weiterhin das Portrait des deutschen Widerstandskämpfers Willi Münzenberg, der erstmals in der Literatur identifiziert wird. Rivera zeigt in der Zweitversion nun aber auch in konkreter Gestalt die zu bekämpfende Gegenposition, die in Joseph Goebbels, Adolf Hitler, Josef Stalin und dem japanischen Kaiser Hirohito zu finden ist. Auch diese Portraits wurden in der Forschung bislang übersehen.
Entgegen der in der Literatur vertretenen These, dass die Zweitversion an Kraft verloren hätte, da sie sich nicht mehr im Herzen des Kapitalismus, also dem Rockefeller Center, befinde, macht die Untersuchung deutlich, dass Rivera mit dem Fresko in Mexiko dringlicher als je zuvor für eine marxistisch-trotzkistische Internationale wirbt. Diese sollte sich von Mexiko aus über den gesamten amerikanischen Kontinent erstrecken und der kapitalistisch-imperialistischen Allianz Einhalt gebieten. Die Arbeit leistet darüber hinaus einen wichtigen Beitrag für den Diskurs über die Rezeption der prähispanischen Kunst im Werk von Diego Rivera. So wird erstmals aufgezeigt, dass Rivera auch in „El Hombre Controlador del Universo“ Motive aus der altmexikanischen Kultur ableitet. Im Gegensatz zu anderen Fresken wurde das Wandbild noch nicht unter dieser Fragestellung untersucht. Grund dafür könnte sein, dass Rivera die ursprünglich mexikanischen Motive, wie die der Sonne und des Mondes, der Nutzpflanzen, der Tiere und des Totenkultes, in einen wissenschaftlichen Kontext einbettet und sie daher nicht auf dem ersten Blick als originär mexikanisch wahrgenommen werden. Der Epilog der Arbeit führt einen Vergleich mit dem für die Pariser Weltausstellung 1952 realisierten Freskos „Friedenstraum und Kriegsalbtraum. Realistische Phantasie“ fort, den 2008 erstmals in der Forschung Ana Isabel Pérez Gavilan Ávila angestoßen hat. Aufgrund der Darstellung von Stalin und Mao als Initiator einer Friedensbewegung und der USA als Atommacht und Folterer von Koreanern und Chinesen hatte dieses Fresko ähnlich wie „Man at the Crossroads“ eine scharfe Zensur erhalten. Rivera behauptete daraufhin sein Bild verteidigend, dass das Fresko eine inhaltliche und formale Fortsetzung von „El Hombre Controlador del Universo“ sei. Ein bislang nicht publizierter Brief, der sich im Archiv des CENIDIAP in Mexiko befindet, legt jedoch dar, dass Rivera mit Hilfe des Wandbildes lediglich versuchte, nach über 20 Jahren wieder von der Kommunistischen Partei aufgenommen zu werden.
"Mir ist so digk vor gesait" : Studien zur erzählerischen Gestaltung des "Meleranz" von dem Pleier
(2024)
In der germanistischen Mediävistik richtet sich das Forschungsinteresse vornehmlich auf die höfische Literatur und dabei insbesondere auf die frühen und späten Artusromane. Vor allem die Werke von Hartmann von Aue und Wolfram von Eschenbach sind zentrale Forschungsobjekte, während Texte wie Pleiers ‚Meleranz‘ bisher nur begrenzt Beachtung fanden.
Die Forschungslücke, die die vorliegende Arbeit adressiert, liegt in der detaillierten Analyse der spezifischen Erzähltechniken des pleierschen Textes, die sich sowohl durch die Verwendung traditioneller arthurischer Motive als auch durch innovative narrative Ansätze auszeichnen. Ausgehend von dem Befund eines stark zurückgenommenen Erzählers wird untersucht, welche narrativen Strategien und Verfahren der Pleier im ‚Meleranz‘ anwendet, um trotz dieser Abkehr von der implizierten poetischen Regelhaftigkeit einer dominanten Erzählerfigur das Erzählen vom Ritter ‚Meleranz‘ gelingen und zugleich an einigen Stellen ausgesprochen konventionell wirken zu lassen.
Um aufzudecken, wie der Text ohne die Stimme eines deutlich hervortretenden Erzählers vermittelt wird, nutze ich im Verlauf der Arbeit eine Typologie der Stoffvermittlung durch (arthurische) Erzähler. In den Einzelstudien zum ‚Meleranz‘ werden seine Motive, Erzählmuster und Figurenkonstellationen in einem close reading erarbeitet und mit der Typologie abgeglichen, um bestimmen zu können, welche Vermittlungsformen im pleierschen Text genutzt werden. Mit Hilfe dieses Vergleichs kann das Erzählverfahren im ‚Meleranz‘ extrapoliert und gleichzeitig offengelegt werden. Mittels dieses Vorgehens wird verdeutlicht werden, dass es sich beim ‚Meleranz‘ um einen Text handelt, der arthurische Konventionen lediglich anders inszeniert, um die vermittelnde Funktion der Stimme des Erzählers zu substituieren oder ihr Fehler auszugleichen.
Die Physiologie des Schmerzes umfasst komplexe immunologische, sensorische und inflammatorische Prozesse im Rückenmark, im Gehirn und in der Peripherie. Wiederholte nozizeptive Stimulation induziert pathophysiologische Veränderungen bei der Schmerzweiterleitung, aus denen eine periphere oder zentrale Sensibilisierung resultiert. Diese kann bei dafür anfälligen Patienten zu der Ausbildung von chronischen Schmerzzuständen führen. Obwohl das Wissen über die genauen molekularen Vorgänge der Schmerz-Chronifizierung noch immer unvollständig ist, sind die Identifizierung von Risikofaktoren vernünftige Schritte, um die individuelle Anfälligkeit für die Entwicklung chronischer Schmerzen zu bestimmen. Das Hauptziel dieser Doktorarbeit bestand daher in der Identifikation humaner genetischer Biomarker für chronische Schmerzzustände.
Bluttransfusionen ermöglichen es jährlich tausenden von Menschen das Leben zu retten. Allerdings bringt ein unreflektierter Einsatz auch zahlreiche Nachteile mit sich. Patient Blood Management (PBM) beschäftigt sich damit, das optimale Kosten-Nutzen-Verhältnis dieser Maßnahme auszuschöpfen.
Das Programm verfolgt einen multimodalen Ansatz zur Reduktion von Transfusionen. Es zielt darauf ab präoperative Anämie zu erfassen und, wenn möglich, zu therapieren, iatrogenen Blutverlust zu reduzieren und die Anämietoleranz des Körpers maximal auszunutzen. Diese Maßnahmen wurden durch Schulungsprogramme und die Bereitstellung von Informationsmaterial begleitet, um die Sensibilität und das Wissen zu diesem Thema zu vergrößern.
Die vorliegende Arbeit befasst sich mit den Einflüssen der Einführung von PBM auf die Mortalität und Morbidität von Malignompatienten in der Viszeralchirurgie. Die retrospektive Analyse war darauf ausgerichtet, einen Unterschied von 10 % im Zweijahresüberleben vor und nach Einführung festzustellen. Hierfür wurden die Daten von 836 Patienten ausgewertet, die sich über einen Zeitraum von vier Jahren einer onkologischen Operation in der Abteilung für Allgemein- und Viszeralchirurgie der Universitätsklinik Frankfurt am Main unterzogen haben. Davon befanden sich 389 vor und 447 nach der Einführung des Projekts in Behandlung.
Das Ziel der Untersuchung bestand darin, die Sicherheit und den Nutzen von PBM in dieser speziellen Patientengruppe näher zu untersuchen. Dazu wurden der primäre Endpunkt des Zweijahresüberlebens und die sekundären Endpunkte 30-Tages- und 90-Tagesüberleben, Prozentsatz an Patienten mit Anämie, Anzahl der transfundierten Erythrozytenkonzentrate (EK) sowie das Auftreten von Komplikationen nach der Dindo-Clavien Klassifikation festgelegt.
Die erhobenen Daten zeigen ein um 13,1 % (p = < 0,001) verbessertes Überleben nach zwei Jahren in den Vergleichsgruppen vor und nach Einführung des Patient Blood Managements. Es haben 21,5 % (p = < 0,001) weniger Patienten Erythrozytenkonzentrate erhalten, zudem wurde die Gesamtsumme der transfundierten Konzentrate signifikant (p = < 0,001) reduziert.
Dabei kam es zu keinem vermehrten Auftreten von Komplikationen. Dies spricht dafür, dass die Einführung von PBM zur Verbesserung der Patientensicherheit beigetragen hat. Es hat sich gezeigt, dass Patienten ohne oder mit moderaten postoperativen Komplikationen (Dindo-Claven < IIIb) von den Veränderungen im besonderen Maße profitieren.
Eine flächendeckende Implementierung des Konzepts in den klinischen Alltag ist als sicher und empfehlenswert zu betrachten. Neben den Patienten profitiert auch das ärztliche Personal, denn im Rahmen von strukturierten Fortbildungsveranstaltungen wird tiefergehendes Wissen vermittelt und klare Handlungsempfehlungen gegeben. Dies reduziert Unsicherheiten, erhöht die Sensibilität und verringert auf diesem Weg Fehler im Transfusionsmanagement. Des Weiteren ergeben sich ökonomische Vorteile. Durch Schulungen, Anämiescreening und der Anschaffung neuer blutsparender Systeme entstehen zwar zunächst zusätzliche Kosten, allerdings stehen diese Einsparungen, durch einen geringeren EK-Verbrauch sowie geringeren Ausgaben durch eine Senkung der Morbidität, gegenüber.
Es wäre von Interesse, in zukünftigen Untersuchungen die genauen Ursachen für den beobachteten Effekt im verbesserten Langzeitüberleben zu analysieren. Mit diesem Wissen kann eine optimale Nutzung der Einflussfaktoren gewährleistet werden. Zudem sollte es auf dieser Basis möglich werden, das Patientenkollektiv, das von einer Transfusion profitiert, genauer einzugrenzen.
Die vorliegende Arbeit beinhaltet die tierexperimentelle Evaluierung von zwei Fragestellungen innerhalb eines Tiermodels. a) Zum einen sollten die Möglichkeiten der vaskulären MR-gesteuerten Interventionen am Model der Carotis-PTA in vivo evaluiert und optimiert, und zum anderen b) die Auswirkungen von intrakraniellen CO2-Embolien bei Herzoperationen unter CO2-Protektion evaluiert werden. Insgesamt wurden an 22 Hausschweinen Gefäßinterventionen unter MRT-Kontrolle durchgeführt. Die Punktion der A. iliaca communis, als Voraussetzung für beide Fragestellungen erfolgte im Angiographieraum. Hier erfolgte auch die Positionierung der Interventionsmaterialien im Zielgefäß, der A. carotis communis. Über das Hybridsystem erfolgte der Transport in den MRT, in dem die unterschiedlichen Interventionsmaterialien getestet und die MRT-Sequenzen angepasst werden konnten. Im zweiten Teil der Arbeit wurden über einen in der A. carotis communis liegenden Katheter unterschiedliche Mengen CO2 oder Luft intracerebral appliziert. Durch eine Diffusionssequenz (DWI) konnten die hierdurch verursachten Effekte auf das Gehirngewebe beobachtet werden. Eine lokale hyperintense Zunahme in der DWI um mehr als 20% wurde als signifikant, in Bezug auf das Vorliegen einer Gehirnischämie bezeichnet. Im Rahmen der 22 Tierexperimente des interventionell, radiologischen Teils konnten die Interventionsmaterialien gut über die entwickelte Echtzeitsequenz dargestellt werden. Durch die Weiterentwicklung dieser Sequenz konnten letztendlich sowohl die Bewegungen, als auch die Öffnungsvorgänge der Ballonkatheter mittels Echtzeitbildgebung dargestellt werden. Darüber hinaus konnten Inteventionsmaterialien bezüglich ihrer Eignung für die MR-Angiographie bewertet werden. Unsere Studie konnte zeigen, dass Interventionen im Bereich der A.carotis communis unter MR-Kontrolle möglich sind. Dies gelingt bislang jedoch nur durch passive Darstellung der Intervenionsmaterialien durch deren Suszeptibilitätsartefakte. Allerdings bedarf es noch der Entwicklung von Interventionsmaterialien, hier vor allem Führungsdrähte, welche nicht magnetisch leitend sind um eine Gefährdung des Patienten auszuschließen. Im herzchirurgischen Teil konnten 16 Tiere eingeschlossen werden. Diese wurden je nach Aplikationsgas und -menge in 3 Gruppen unterteilt: Gruppe I: Gruppe II: Gruppe III: Bei allen Tieren wurden Signalanhebungen in der Diffusionssequenz in der ipsi- und kontralateralen Hemisphäre, deren Persistenz über 25 Minuten, sowie klinische Symptome registriert. Herauszustellen sind die deutlich unterschiedlichen klinischen Reaktionen der Gruppe I zu den Gruppen II und III in unserer Studie. Die Kreislaufreaktionen, die in der Gruppe I bei 4 von 5 Tieren bis zum Kreislaufstillstand reichten, wurden von deutlichen, bilateralen Signalveränderungen in der DWI begleitet. In diesen Fällen muss von einem irreversiblen, großen cerebralen Insult ausgegangen werden. Lediglich bei 2 von 11 Tieren der beiden CO2 Gruppen, waren die Signalanhebungen progredient und dehnten sich in den späten Messungen auch auf die kontralaterale Hemisphäre aus. Bei allen übrigen Tieren dieser Gruppen waren nur leichte Signalanhebungen nach 10 Minuten zu erkennen. Daraus ist zu schließen, dass mit keinen bleibenden Schädigungen der Gehirnzellen zu rechnen ist, da die Ischämiezeit deutlich unter 15 Minuten lag.
Hintergrund. Die Achtung der individuellen Autonomie ist eines von vier medizinethischen Prinzipien, das im Kontext von Medizin und Forschung insbesondere in Bezug auf die informierte Einwilligung einer Person thematisiert wird. Menschen mit Demenz können aufgrund innerer oder äußerer Faktoren in ihrer Einwilligungsfähigkeit beeinträchtigt sein, was zu einer Einschränkung ihres Rechts auf Selbstbestimmung führen kann. Im diesbezüglichen Spannungsfeld zwischen Fürsorge und Autonomie soll Entscheidungsassistenz zur Ermöglichung selbstbestimmter Entscheidungen beitragen.
Zielrichtung der Arbeit. Ziel der vorliegenden Dissertation ist die Definition, Implementierung und Evaluation von Entscheidungsassistenzmaßnahmen für Menschen mit Demenz, um deren Autonomie in Entscheidungsprozessen zu unterstützen. Drei Teilprojekte umfassen die Ermittlung des internationalen Forschungsstands zu Entscheidungsassistenz bei Demenz, die Definition und Pilotierung von Unterstützungstools in der Praxis und die Analyse des individuellen Erlebens der vereinfachten Aufklärungsgespräche durch Menschen mit Demenz.
Methode. Im ersten Teilprojekt wurde eine am PRISMA-Standard orientierte systematische Literaturrecherche in Medline und PsycINFO durchgeführt. Die extrahierten relevanten Informationen wurden inhaltlich systematisiert. Aufbauend auf diesen Ergebnissen wurden im zweiten Teilprojekt konkrete Unterstützungstools definiert und in reale Aufklärungsgespräche (Lumbalpunktion) implementiert. Die Tools wurden in der Pilotierung in der Praxis sowie in einem iterativen Diskussionsprozess mit Experten weiterentwickelt. Im dritten Teilprojekt wurde das individuelle Erleben der Teilnehmer der vereinfachten Aufklärungsgespräche mittels problemzentrierter Interviews untersucht und die Daten einer qualitativen Inhaltsanalyse unterzogen.
Ergebnisse. Die Datenbankrecherche ergab initial 2348 Treffer. Nach Screenings der Titel, Abstracts und Volltexte konnten 11 Artikel eingeschlossen werden. Vier der eingeschlossenen Studien sind Interventionsstudien, die übrigen sieben qualitative Interviewstudien. Die identifizierten Unterstützungsmaßnahmen wurden zunächst den beiden Kategorien Interventionen und Strategien und anschließend unter Zuhilfenahme des Konzepts des Contextual Consents fünf komplexitätssteigernden Dimensionen einer Entscheidungssituation zugeordnet (individuelle, soziale, medizinische, informationelle und Folgendimension). Darauf aufbauend wurden im zweiten Teilprojekt acht Entscheidungsassistenzmaßnahmen abgeleitet: (1) Gesprächsstruktur, (2) Elaborierte klare Sprache, (3) Ambiente / Raumgestaltung, (4) Stichwortlisten, (5) Prioritätenkarten, (6) Visualisierung, (7) Vereinfachte schriftliche Einverständniserklärung sowie (8) Personenzentrierte Haltung des Entscheidungsassistenten (1-7: Tools, 8: Grundeinstellung). Die Tools zielen überwiegend auf eine Komplexitätsreduktion in der informationellen Dimension unter Berücksichtigung der fähigkeitsbezogenen und der bedürfnisbezogenen individuellen Dimension ab. Durch Anpassungen der Informationsdarbietung oder der kommunikativen Interaktion im Gespräch dienen sie mehrheitlich der Förderung des (Informations-) Verständnisses. Die Analyse der qualitativen Daten im dritten Teilprojekt zeigt, dass die Erfahrung der vereinfachten Aufklärungsgespräche durch drei übergreifende Themen gekennzeichnet ist. Die Kategorie Formalität versus Informationsgewinn illustriert die individuelle Bedeutung des Aufklärungsgesprächs für die Teilnehmer und deren Bewertung des Prozesses der informierten Einwilligung. Die Kategorie Wahrnehmung der Unterstützung skizziert die Bewertungen der angewandten Unterstützungstools durch die Teilnehmer. Die Kategorie Der Wahrheit ins Auge sehen müssen stellt dar, dass die erlebte Situation des vereinfachten Aufklärungsgesprächs wesentlich durch die Verdachtsdiagnose Demenz bestimmt ist, die im Rahmen aller Aufklärungsgespräche besprochen wurde.
Fazit. Bislang gibt es wenig empirische Forschung zu Entscheidungsassistenz für Menschen mit Demenz und Unterstützungsmaßnahmen werden überwiegend unsystematisch entwickelt und angewendet. Die Wirksamkeit einzelner Unterstützungsmaßnahmen kann aufgrund fehlender Interventionsstudien selten beurteilt werden. Unterstützungsmaßnahmen zielen überwiegend auf eine Komplexitätsreduktion in der Informationsdarbietung und im kommunikativen Interaktionsprozess ab, wobei sie kognitive Beeinträchtigungen und Interaktions-/ Entscheidungsbedürfnisse von Menschen mit Demenz berücksichtigen. Die definierten Tools können als erste konkret handhabbare Werkzeuge verstanden werden, die das strukturierte Leisten von Entscheidungsassistenz für Menschen mit Demenz erleichtern sollen. Sie sind übertragbar auf verschiedene Entscheidungssituationen. Eine Bewertung der Wirksamkeit der definierten Tools sollte in weiteren Entscheidungssituationen und mit größeren Stichproben weiteruntersucht werden. Die Ergebnisse der Evaluation liefern jedoch erste Hinweise darauf, dass einige Teilnehmer sich von einzelnen Tools unterstützt gefühlt haben und die anvisierte Komplexitätsreduktion in der informationellen Dimension in einigen Fällen erfolgreich war. Eine wesentliche Komplexitätssteigerung in der untersuchten Entscheidungssituation entstand durch die negative Emotionen auslösende Vermittlung einer potentiellen Demenzdiagnose (Folgendimension). Dieses Ergebnis impliziert, dass die definierte „verständnisfördernde Toolbox“ um Unterstützungsmaßnahmen zur emotionalen Entlastung von Menschen mit Demenz erweitert werden muss, da davon ausgegangen werden kann, dass vielfältige Entscheidungssituationen für Menschen mit Demenz emotional hoch belastend sind.
Die HAART hat einen Durchbruch in der Therapie der HIV-Infektion bewirkt und so zu einer drastischen Senkung der Mortalität und Morbidität geführt. Um diesen Ansprüchen weiterhin gerecht zu werden und sie bestenfalls zu übertreffen, erfordert eine ständige Weiterentwicklung der HAART mit neuen und ausgefeilteren Alternativen. Ein weiterer Schritt in diese Richtung ist die Entwicklung einer neuen Formulierung des Kombinationspräparates LPV/r (Kaletra®) von der „lipophilen Kapselform“ zur „hydrophilen Tablettenform“, aus der Wirkstoffgruppe der Proteasehemmer. Lopinavir (LPV) ist ein HIV-Proteasehemmer der mit Ritonavir (r oder RTV) als fixe Kombination (LPV/r) hergestellt wird. Der Proteasehemmer Ritonavir wird dabei in subtherapeutischer Dosierung als Booster verwendet, dadurch wird eine Verbesserung der pharmakokinetischen Eigenschaften erzielt. Der Vorteil hierbei sind die höheren Lopinavir-Plasmaspiegel die erreicht werden. Diese Kombination wird als Kaletra® (LPV/r) vermarktet.
LPV/r ist erhältlich als lipophile Kapselform (133,3/33,3mg) oder in Flüssigform (80/20mg pro ml). Beide erfordern eine kühle Lagerung und müssen mit einer fettreichen Mahlzeit eingenommen werden, um optimale Lopinavir Plasmaspiegel zu erzielen.
Durch das „Melt Extrusion (Meltrex)“ Produktionsverfahren gelang die Herstellung einer „hydrophilen Tabletteform“ (200/50mg und 100/25mg) mit verbesserter Bioverfügbarkeit. Dadurch reduzierte sich die einzunehmende Anzahl von 6 Kapseln pro Tag auf 4 Tabletten pro Tag. Zudem bedarf die LPV/r Tablette keiner Kühlung und kann nahrungsunabhängig eingenommen werden.
Ziel dieser Untersuchung war es zu prüfen, welche LPV/r (Kaletra®) Darreichungsform, Kapsel oder Tablette, in einer HAART von HIV-Patienten bevorzugt wird. Es sollte ermittelt werden, ob bei gleichbleibender Wirksamkeit kombiniert mit einer verbesserten Verträglichkeit und Handhabung (weniger Tabletten, nahrungsunabhängige Einnahme und keine Kühlung), die überwiegende Mehrzahl der HIV-Patienten sich zugunsten der LPV/r Tablette, im Sinne einer verbesserten Lebensqualität bzw. Gemütszustandes, entscheiden werden.
Dies geschah anhand einer prospektiven, nicht randomisierten Studie mit 238 HIV-infizierten Patienten, die über mindesten 16 Wochen oder länger eine LPV/r Kapsel haltige antiretrovirale Kombinationstherapie einnahmen und am Tag 0 auf LPV/r Tabletten umgestellt wurden, ohne weitere Änderungen in ihrer bisherigen HAART vorzunehmen. Der darauffolgende Beobachtungszeitraum betrug 32 Wochen. Es wurden Vorher-, Nachher-Fragebogen ausgefüllt und die Patienten unterzogen sich einer Vorher-, Nachher-Laboruntersuchung (CD4 und HI-Viruslast). Zudem wurde nach der subjektiven Präferenz gegenüber beiden Darreichungsformen (Kapsel oder Tablette) gefragt.
Zusammenfassend lässt sich sagen, dass unter der LPV/r Tablette bei gleichbleibender antiretroviraler Wirksamkeit, signifikant weniger intestinale Nebenwirkungen auftraten und daran geknüpft signifikant weniger Medikamente gegen intestinale Beschwerden eingenommen wurden. Was bei den Patienten zu einer deutlichen Präferenz der LPV/r-Tablette (71,2 %) gegenüber der LPV/r Kapsel (3,0 %) führte. Die Ergebnisse zu Lebensqualität zeigten zwar eine tendenzielle Besserung aber zusammen mit den Gemütszuständen ergaben sich hier keine signifikanten Unterschiede.
Nach der vorliegenden Untersuchung muss die LPV/r Tablette im Vergleich zur LPV/r-Kapsel, als die überlegene antiretrovirale Therapieoption in Betracht gezogen werden. Angesichts zahlreicher Einschränkungen durch die Infektion und die Notwendigkeit einer lebenslangen Therapie, kann dies, ein bedeutender Beitrag zur Therapietreue sein und dadurch den Erfolg einer HIV-Therapie wesentlich mitbestimmen.
Die Arbeit befasst sich auf dem Weg einer qualitativ empirischen Studie mit dem Thema „informelles Lernen“. Im Mittelpunkt steht die Erforschung der unterschiedlichen Phänomene informellen Lernens – der Lerninhalte, -formen und -modalitäten sowie die Bedeutung des Kontextes für diese Lernform. Darüber hinaus wird auf einer theoretischen Ebene eine Auseinandersetzung mit dem Diskurs um das informelle Lernen angestrebt. Neben einem Literaturbericht – dessen Ergebnis die theoretische wie empirische Unterbelichtung des informellen Lernens ist – wird nach einem systematischen Verständnis vom Lernen in informellen Kontexten gesucht. Im Fokus der Arbeit liegt aber die empirische Befassung mit dem Phänomen des informellen Lernens. Zu diesem Zweck wurden – verortet im Kontext eines kommunalen Wildtiermanagementprojektes – zweistufige Interviews sowie teilnehmende Beobachtungen durchgeführt und analysiert. Auf Basis dieser empirischen Daten konnten unterschiedliche Lernergebnisse und -formen informellen Lernens sowie unterschiedliche lernrelevante (Kontext-)Faktoren rekonstruiert werden. Darüber wurden spezifische Merkmale und Besonderheiten des Lernens in informellen Kontexten erarbeitet.
Ziel der Studie: Die akute alkoholinduzierte Fettleber stellt das erste Stadium alkoholischer Leberer-krankungen dar. Bereits eine akute Alkoholintoxikation führt zu einer signifikanten Ak-kumulation von Fett in den Hepatozyten. Trotz verbesserter serologischer und bildge-bender Diagnoseverfahren ist die Leberbiopsie nach wie vor der Goldstandard zur Di-agnose einer Fettleber. Mögliche Komplikationen als invasives Verfahren, Stichproben-fehler sowie eine geringe Sensitivität im Bereich geringgradiger Verfettung sind die größten Nachteile der Leberbiopsie. Ziel dieser Studie war es, mit Hilfe der 1H-Magnetresonzspektroskopie eine akute alkoholinduzierte Fettleber zu diagnostizieren und quantitativ zu beurteilen. Um die Korrelation zwischen spektroskopisch gemesse-nem Leberfettgehalt und histologischer, biochemischer sowie laborchemischer Analyse zu bestimmen, wurde eine alkoholinduzierte Fettleber im Tiermodell verwendet.
Methodik: In 20 Lewis-Ratten wurde eine alkoholische Fettleber mittels gastraler Ethanol-Applikation induziert; 10 Ratten dienten als Kontrolle. Der intrahepatische Fettgehalt wurde mittels 1H-MRS (3.0 T) als prozentuales Verhältnis zwischen Lipid- und Was-ser-Peak berechnet. Fettgehalt sowie Triglyceride wurden nach Entnahme der Leber histologisch und biochemisch (nach FOLCH) bestimmt. Um spezifische Leberenzyme zu untersuchen, wurde Blut aus dem orbitalen Venenplexus entnommen.
Ergebnisse: In allen 20 Tieren konnte nach Ethanolapplikation eine Leberverfettung mittels 1H-MRS nachgewiesen werden. Histologisch zeigten 16 Tiere eine Fettleber. Ebenso zeigte sich nach Ethanolgabe und folgender biochemischer Analyse im Durschnitt eine Erhö-hung des Triglyceridgehalts, welcher einer Leberverfettung entsprach. Es fanden sich statistisch signifikante Korrelationen zwischen der histologisch bestimmten intrahepati-schen Verfettung und dem spektroskopisch gemessenen Fettgehalt (Pearson-Korrelationskoeffizient r = 0.90, p < 0.01) sowie zwischen der biochemischen Analyse nach FOLCH und 1H-MRS (r = 0.97, p < 0.01). Ebenso zeigte sich eine positive signifi-kante Korrelation zwischen spektroskopisch gemessener Leberverfettung und den Le-berparametern AST (r = 0.91, p < 0.05) und ALT (r = 0.84, p < 0.05).
Schlussfolgerung: Es konnte gezeigt werden, dass bereits geringgradige intrahepatische Verfettungen prä-zise quantitativ mittels 3.0 T-Protonen-MR-Spektroskopie darstellbar sind. Somit kann die Methode – bei Beachtung geeigneter Grenzwerte histologischer Messungen – als verlässliche diagnostische Alternative in Betracht gezogen werden. Bereits 48 Stunden nach Alkoholintoxikation ist mittels 1H-MRS eine exakte Differenzierung gesunder und pathologischer Lebern möglich – entscheidend vor allem im Rahmen einer Prätrans-plantationsdiagnostik bei Verdacht auf eine akute Fettleber. Darüber hinaus ist die 1H-MRS anderen bildgebenden Verfahren wie Ultraschall, CT und MRT in der genauen Quantifizierung intrahepatischen Fettgehalts überlegen. Der Einsatz erscheint auch in der Diagnostik und Verlaufskontrolle alkoholischer Lebererkrankungen in Zukunft sinnvoll. Kommende Untersuchung sollten an einem größeren Probandenkollektiv durchgeführt werden, um den Stellewert der 1H-MRS zu unterstreichen.
Osteosynthesematerialien aus resorbierbaren Materialien finden aufgrund ihrer zunehmenden biomechanischen Stabilität eine immer höhere Akzeptanz. Die vorgelegte Untersuchung vergleicht die knöcherne und okklusale Stabilität von solchen Osteosynthesesystemen aus resorbierbaren Materialien im Vergleich mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Untersucht wurden 100 Patienten in einem Nachsorgezeitraum von bis zu 4 Jahren. Die Beurteilung erfolgte klinisch und röntgenologisch anhand von Fernröntgen-Seiten-Aufnahmen. In die Studie gingen ein fünfzig Patienten, die mit resorbierbaren Platten versorgt worden waren, 16 davon mit Polylactid-Polyglycolid Copolymer Platten und 34 Patienten mit 70:30 Poly-L/DL-Lactid Copolymer Platten; fünfzig weitere Patienten, versorgt mit einem Titanminiplattensystem wurden als Kontrollgruppe gewertet. Zunächst konnte gezeigt werden, dass die Gruppen zueinander homogen waren, es unterschieden sich die effektiven intraoperativen Bewegungen von Studien und Kontrollgruppe statistisch nicht signifikant, gleiches galt im Vergleich der resorbierbaren Platten untereinander. Bei der Datenauswertung konnte nachgewiesen werden, dass die absolute und relative Instabilität weder zwischen den Studiengruppen noch der Kontrollgruppe noch zwischen den resorbierbaren Plattensystemen untereinander signifikant unterschiedlich war. Die postoperative 1-Jahres Stabilität unterschied sich dabei ebenfalls nicht signifikant von der 4-Jahres Stabilität. Alle untersuchten Osteosynthesesysteme zeigten im Oberkiefer eine höhere Stabilität als im Unterkiefer und gleichzeitig eine größere Stabilität in der anterior-posterioren Richtung als in der inferior-superioren Richtung. Es wurden keine signifikanten Unterschiede zwischen der klinischen Stabilität von PLGA oder P(L/DL)LA-Miniplatten gefunden. Allerdings konnte auch belegt werden, dass der Einsatz resorbierbarer Unterkieferosteosynthesen eine sehr gute Compliance des Patienten bezüglich geführter Okklusion und Nachsorge voraussetzte. Als nachteilig bei den resorbierbaren Systemen konnte sowohl für den Oberkiefer als auch für den Unterkiefer eine leicht erhöhte Mobilität bis zu 6 Wochen nach der Operation festgestellt werden, die jedoch in keinem Fall das operative Ergebnis beeinflusste. Vielmehr ermöglichten resorbierbare Osteosynthesen eine bessere postoperative okklusale Einstellung. Weiteren Nachteil der resorbierbaren Osteosynthesesysteme bedeuten die hohen Kosten, die heute noch weit über denen von Titanminiplatten liegen. Zukünftige Entwicklungen gehen dahin, das Plattendesign weiter zu optimieren, wie z.B. neuartige pinbasierte Fixationssysteme einzusetzen, wie sie in der Extremitätenchirurgie teils bereits benutzt werden. Fernziel für die Zukunft ist die Entwicklung eines resorbierbaren Osteosynthesesystems, das sich bei geringen Herstellungskosten und miniaturisiertem Plattendesign auch minimalinvasiv einbringen lässt.
Zusammenfassung der Dissertation "9,10-Dihydro-9,10-diboraanthracen: Ein neuartiges ditopes Hydroborierungsreagenz zum Aufbau photolumineszenter pi-konjugierter Organylborane" von Andreas Lorbach (2011) Borhaltige pi-konjugierte Verbindungen eignen sich u.a. als Chemosensoren zur Detektion von Lewis-Basen sowie als Materialien für optoelektronische Bauteile, wie z.B. organische Leuchtdioden. Vertreter dieser Substanzklasse sind Vinylborane, welche sich sehr effizient durch Addition von Hydroboranen an terminale Alkine erzeugen lassen. Diese Reaktivität nutzten Chujo et al. zum Aufbau pi-konjugierter Polymere, wobei sie Aryldiine mit sterisch anspruchsvollen Organylboranen RBH2 (R = 2,4,6-Trimethylphenyl; 2,4,6-Triisopropylphenyl; 1,1,2-Trimethylpropyl) umsetzten. Zur Detektion von Lewis-Basen sind sterisch weniger anspruchsvolle Substituenten R, die einen freien Zugang zum Boratom ermöglichen, von Vorteil. Untersuchungen unserer Arbeitsgruppe haben jedoch gezeigt, dass sich die entsprechenden Organylborane RBH2 nicht als Hydroborierungsreagenzien eignen, da sie stattdessen unter Abspaltung von Diboran spontan zu Diorganylboranen kondensieren. Im Rahmen der vorliegenden Arbeit wurde gezeigt, dass sich diese unerwünschte Substituentenübertragung durch Einbindung des Borzentrums in ein cyclisches Molekülgerüst verhindern lässt und 9,10-Dihydro-9,10-diboraanthracen (1) somit ein isolierbares ditopes Hydroboran darstellt. Mittels eines in dieser Dissertation entwickelten dreistufigen Synthesewegs kann 1 in guten Ausbeuten aus 1,2-Dibrombenzol gewonnen werden. Im Festkörper bildet 1 eine polymere supramolekulare Struktur [1]n aus, in der die 9,10-Dihydro-9,10-diboraanthracen-Einheiten über 2-Elektronen-3-Zentren-BHB-Bindungen miteinander verknüpft sind. Durch Umsetzung von schwerlöslichem [1]n mit Dimethylsulfid lässt sich das supramolekulare Aggregat aufbrechen und man erhält das lösliche Addukt 1(Me2S)2, das als kristallines Material in hoher Reinheit isoliert werden kann. Bei 1(Me2S)2 handelt es sich um ein hervorragendes Hydroborierungsreagenz, welches bei Raumtemperatur mit terminalen Alkinen zu den entsprechenden Vinylboranen reagiert. Aus 1 lassen sich mit Diethinylarenen außerdem lumineszente pi-konjugierte Hydroborierungspolymere erzeugen. Die Umsetzung mit bidentaten Lewis-Basen, wie z.B. Pyridazin, führt zu sehr stabilen symmetrischen Addukten, in denen die Base die beiden aziden Borzentren des Diboraanthracens verbrückt. Um einen Einblick in die elektronischen Eigenschaften des 9,10-Dihydro-9,10-diboraanthracens (1) zu erhalten, wurde im Rahmen der vorliegenden Arbeit das zu Anthracen isoelektronische dianionische Diborataanthracen ([1]2-) isoliert und hinsichtlich seiner Festkörperstruktur und Reaktivität untersucht.
Die eingereichte Dissertation liefert fundamentale Erkenntnisse zur Chemie nucleophiler Borzentren, die unter B•B-, B–B- und B=B-Bindungsbildungen reagieren. Zusammen mit den aufgedeckten Prinzipien zu (e–)-induzierten Umlagerungen des 9-Borafluorengrundgerüsts und Übertragungen von Hydridionen liegt nun ein umfassendes mechanistisches Wissen vor, das die effiziente Synthese neuartiger Moleküle ermöglicht. Im Folgenden ist eine Übersicht über bearbeitete Teilprojekte gegeben.
Durch Reduktion des Bis(9-borafluorenyl)methans 7 wurde über [7•]– (B•B-Einelektron-Zweizentrenbindung) und [7]2– (B–B-Zweielektronen-Zweizentrenbindung) das Tetraanion [7]4– dargestellt, das bei Zugabe von Elektrophilen unter Oxidation reagiert.
Die Injektion von Elektronen in das B(µ-H)2B dotierte Dibenzo[g,p]chrysen 12 führt in Abhängigkeit der Natur und der Stöchiometrie des eingesetzten Reduktionsmittels zu unterschiedlichen Hauptprodukten (bordotierte Dibenzo[g,p]chrysen- oder 9,9‘-Bifluorenylgrundkörper) mit verschiedenen Bindungsmodi (B–B-, B=B- oder (µ-H)B-B-Bindungen), deren Entstehung mechanistisch über Gerüstumlagerungen und Hydridübertragungen dargelegt wurde.
Durch die Zugabe etherischer HCl kann die B=B-Bindung in [37]2– quantitativ zu [116]– [(µ-H)B–B] oder 12 (B(µ-H)2B) protoniert werden. Umgekehrt lässt sich das scheinbar hydridische Diboran 12 durch sterisch anspruchsvolle Basen selektiv zu [116]– deprotonieren. Die kleine Base H3CLi führt neben der Deprotonierung von 12 auch zu einem Bis(9-borafluorenyl)methan, das ein verbrückendes Hydridion trägt ([125]–). Der Mechanismus wurde detailliert untersucht (z. B. wurde eine C–H-Aktivierung aufgeklärt), was u. a. genutzt werden konnte, um einen atomökonomischen Pfad von [37]2– zu [125]– zu etablieren.
Die Intermediate [132Cn,X]– (formale Addukte eines 9-Borafluorenyl-Anions an borständig substituierte 9-Borafluorene), gebildet durch die Zugabe von Halogenalkanen zu [37]2–, reagieren in Abhängigkeit der borständigen Alkylkette unter: (i) intramolekularer C–H-Aktivierung, (ii) intramolekularer Substitutionen oder (iii) intermolekularer Substitution.
Die Reduktion des 9-Borafluorens 6∙THF mit Lithium erzeugt das B=B-gebundene Dibenzo[g,p]chrysen-Dianion [37]2–, das 9-Borafluoren-Dianion [6]2–, das 9,9-Dihydroboratafluoren [34]– und das tetraanionische Bis(9-borafluorenyl) [146]4–.
Das 9-Borafluoren-Dianion [6]2–, das durch Reduktion von 6∙THF bei –78 °C mit Alkalimetallen selektiv dargestellt wurde, reagiert als formales Nucleophil. Über eine Reaktionskaskade gelang die selektive Synthese unterschiedlicher Produkte, die bei der literaturbekannten Reduktion des unsymmetrischen 9-Borafluoren-Dimers (6)2 mit Lithium in Toluol in Gegenwart von Et3SiBr beschrieben wurden. Hierüber konnte u. a. die Bildung eines organischen Derivats von [B3H8]– erklärt werden.
Das Philadelphia-Chromosom (Ph) ist das zytogenetische Korrelat der Translokation t(9;22). 95% der chronisch myeloischen Leukämien (CML) und 20-25% der akuten lymphatischen Leukämien (ALL) des Erwachsenen sind Ph-positiv (Ph+). Bei der t(9;22) kommt es zur Fusion des abl -locus auf Chromosom 9 und des bcr-locus auf Chromosom 22. Dies führt zur Bildung des chimären bcr/abl Gens, welches für das BCR/ABL Fusionsprotein kodiert, das für die Pathogenese der Ph+ Leukämien verantwortlich gemacht wird. Das ABL-Protein ist eine nicht-Rezeptor Tyrosinkinase, die eine wichtige Rolle in der Signaltransduktion und der Regulation des Zellwachstums spielt. Im BCR/ABL-Fusionsprotein wird die Kinase-Aktivität von ABL, die im Normalfall streng reguliert ist, durch die Fusion mit BCR konstitutiv, das heißt andauernd, aktiviert. Dadurch kommt es zur Deregulierung vielfältiger intrazellulärer Signalwege, was die maligne Transformation hämopoetischer Zellen zur Folge hat. Mit dem spezifischen ABL-Kinaseinhibitor Imatinib steht seit wenigen Jahren ein tumorzellspezifischer Wirkstoff für die Therapie der Ph+ Leukämien zur Verfügung, der bei der Mehrzahl der Patienten zur hämatologischen Vollremission führt. Insbesondere bei Patienten mit CML-Blastenkrise und Ph+ ALL kommt es durch klonale Expansion Imatinib-resistenter Zellen jedoch zu einem frühen Therapie-refraktären Rezidiv der Krankheit. Aufgrund der Problematik Imatinib-resistenter Rezidive wurden und werden "Nachfolger" von Imatinib mit dem Ziel entwickelt, die hohe Spezifität beizubehalten und wesentlich höhere Affinitäten zu erreichen. Derzeit befinden sich vielversprechende Substanzen in klinischen Studien: Nilotinib (Nilotinib, Novartis, Basel) ist ein spezificher ABL-Kinase Inhibitor der eine ca. 20-mal höhere Affinität gegenüber BCR/ABL hat als Imatinib. Dasatinib (BMS-354825, Bristol-Myers Squibb; New York) hat eine 325-fach höhere Affinität als Imatinib und wurde ursprünglich als Src-Kinase Inhibitor entwickelt. Die sehr hohe Affinität für die ABL-Kinase wurde erst später festgestellt (O'Hare et al., 2005b). Bei beiden Substanzen konnte eine Wirksamkeit auf die meisten klinisch relevanten Imatinib-resistenten BCR/ABL-Mutationen gezeigt werden (O'Hare et al., 2005b). Die Mutation T315I bildet die wichtigste Ausnahme. Ziel dieser Arbeit war es, die Grundlagen für neue, tumorzellspezifiche Therapiestrategien für die Behandlung BCR/ABL-positiver Leukämien, sowie deren imatinibresistenten Mutationen zu legen. Die Oligomerisierung spielt für die Aktivierung von BCR/ABL eine grundlegende Rolle und wird durch die N-terminale BCR-coiled-coil Region vermittelt. In unserer Arbeitsgruppe konnte eindeutig gezeigt werden, dass die Oligomerisierungsdomäne von BCR/ABL ein therapeutischer Angriffspunkt für ein kleines Peptid, der Helix-2, für die Behandlung Ph+ Leukämien darstellt. Der Einfluss der Helix-2 auf die Oligomerisierung des BCR/ABL Wildtyps und der damit verbundenen Sensitivitätssteigerung gegenüber Imatinib wurde in unserer Arbeitsgruppe genauestens untersucht und führte zu folgender Fragestellung: Welchen Einfluss hat die Helix-2 auf BCR/ABL Mutationen? Inwieweit ist es möglich die Imatinibresistenz bestimmter Mutationen durch Helix-2 Peptide zu vermindern oder zu überwinden? Welchen Einfluss hat die Helix-2 auf die Wirkung des Kinaseinhibitors Dasatinib verglichen mit Imatinib? Von den drei ausgewählten Punktmutationen Y253F, E255K und T315I war es bei zweien, nämlich den Mutationen Y253F und E255K, möglich die Imatinibresistenz nach Einbringen der Helix-2 in die Zellen zu überwinden. In Gegenwart von Dasatinib konnte durch die Helix-2 Peptide keine Sensitivitätssteigerung erreicht werden. Dies ist durch das verschieben des Gleichgewichtes von der aktiven hin zur inaktiven Konformation der ABL-Kinase durch die Helix-2 Peptide und durch die unterschiedlichen Angriffspunkte der zwei Tyrosinkinaseinhibitoren zu erklären. So bindet Dasatinib an der aktiven ABL-Kinase, Imatinib an der inaktiven ABL-Kinase. Die Mutation T315I warf durch ihre Resistenz gegenüber den Helix-2 Peptiden und ihrer Unabhängigkeit von der Tyrosinkinaseaktivität, eine neue Fragestellung bezüglich ihrer Arbeitsweise auf, welche im zweiten Teil dieser Arbeit untersucht wurde: Ist die 185(BCR=ABL)-T315I Mutation unabhängig von ihrer Tyrosinkinaseaktivität? Um dieser Fragestellung nach zu gehen untersuchten wir das Transformationpotential von unmutiertem p185(BCR=ABL) Deletionsmutanten, denen die Oligomerisierungsdomäne, die Coiled-Coil Domäne fehlt, und deren dazugehörigen Mutationen Y253F, E255K und T315I, denen ebenfalls die CC-Domäne fehlt. Nach Analyse aller Ergebnisse zeigte sich, dass die Mutation T315I in allen Versuchen eine Ausnahme darstellte und in allen Zellsystemen trotz fehlender CC-Domäne in der Lage ist die Zellen zu transformieren. Diese Tatsache beweist, dass die Mutation T315I unabhängig von ihrer Tyrosinkinaseaktivität das Potential zur Transformation besitzt. Die weitere Untersuchung dieser Mutation und ihrer Arbeitsweise könnte in Zukuft neue Wege aufweisen um die Aktivität dieser Mutation anzugreifen und therapeutisch gegen sie vorzugehen.
ADHS im Erwachsenenalter ist eine komplexe Erkrankung, die durch verschiedene diagnostische Instrumente erfasst wird. Aktuell spielen dabei vor allem die klinische Exploration, Interview- und Fragebogendaten eine Rolle.
Obwohl bei Patient*innen vielfältige kognitive Einschränkungen bestehen, wird die Verwendung neuropsychologischer Daueraufmerksamkeitstests (CPTs) in den klinischen Leitlinien nur ergänzend erwähnt. Validität und Nützlichkeit von CPTs bei ADHS Patient*innen wird aufgrund der mangelnden Sensitivität und
Spezifität immer wieder kritisch diskutiert. Multidimensionale Ansätze, in denen verschiedene neuropsychologische Beurteilungen mit klinischen Parametern kombiniert werden, sollen das Aufstellen einer ADHS Diagnose im Erwachsenenalter verbessern. Die vorliegende Studie untersucht zwei verschiedene CPTs bezüglich deren Vergleichbarkeit und deren Verknüpfung mit klinischen Parametern. Ein direkter Vergleich innerhalb derselben Stichprobe ist bisher nicht durchgeführt worden, könnte jedoch wichtige Implikationen für die Testauswahl und darauffolgende klinische Interventionen haben. Die klinische Stichprobe besteht aus zufällig ausgewählten erwachsenen Patient*innen, die sich in der ADHS Ambulanz der Klinik für Psychiatrie, Psychosomatik und Psychotherapie des Universitätsklinikums Frankfurt zur diagnostischen ADHS Beurteilung zwischen Mai und November 2019 vorstellten. Die Patient*innen wurden von erfahrenen Ärzt*innen mithilfe des strukturierten diagnostischen Interviews für ADHS bei Erwachsenen (DIVA 2.0) befragt. Au§erdem wurden Schulzeugnisse bewertet und die medizinische Vorgeschichte erhoben. Anschließend wurden die Patient*innen mit dem Wender-Reimherr Interview (WRI) von einer unabhängigen Interviewerin befragt und füllten die folgenden Selbstbeurteilungsfragebögen aus: Kurzform der Wender-Utah Rating Scale (WURS-k), Impulsive Behavior Scale (UPPS) und General Health Questionnaire (GHQ-28). Alle Patient*innen nahmen anschließend an der Testung mit zwei CPTs teil: dem Quantified Behavior Test (Qb-Test) und Nesplora Aquarium [9]. Der Qb-Test misst neben Unaufmerksamkeit und Impulsivität auch Hyperaktivität mithilfe einer Infrarot Kamera und eines Reflektors, welche das Bewegungsmuster während der Testung aufzeichnen. In Nesplora Aquarium wird virtuelle Realität genutzt, um das Bewegungsmuster mithilfe eines optischen Gerätes, das mit Sensoren und Lautsprechern ausgestattet ist, aufzuzeichnen. Es zeigte sich, dass die übergreifende Vergleichbarkeit beider Tests begrenzt ist. Trotz der kongruenten Messung von Unaufmerksamkeit in beiden Tests konnten keine Korrelationen mit den klinischen Parametern festgestellt werden. Hyperaktivität ist in beiden Tests positiv mit aktuellen ADHS Symptomen assoziiert, wobei der Qb-Test darüber hinaus noch Korrelationen mit ADHS Symptomen aus der Kindheit aufweist. Impulsivität stellte sich als ein unabhängiges Konstrukt heraus, sowohl die Korrelation zwischen beiden Tests als auch die Assoziation mit klinischen Parametern betreffend. Dies stellt in Frage, ob ein homogenes mpulsivitätskonstrukt existiert, welches sich in neuropsychologischen Tests und klinischen Symptomen abbildet. Insgesamt ermöglicht die Studie einen guten Vergleich beider CPTs und zeigt detaillierte Informationen über die
Kompatibilität mit klinischen Symptomen auf. Unaufmerksamkeit stellte sich als ein basaler Faktor heraus, der zwischen beiden Tests über alle Patient*innen hinweg überlappt. Da dieser Faktor jedoch nicht mit klinischen Parametern korreliert, unterstreicht dies die Problematik, subjektive mit objektiven Methoden in der ADHS Diagnostik zu verbinden. Die aktuellen Ergebnisse bezweifeln die einfache Anwendung sogenannter objektiver Messverfahren in der klinischen ADHS Diagnostik aufgrund ihrer fragwürdigen Validität. Die Ergebnisse der Studie verdeutlichen die Notwendigkeit eines neuen diagnostischen Ansatzes im Sinne der Präzisionsmedizin, welcher über die konventionellen Klassifikationssysteme hinaus passende individuelle Lösungen für Diagnostik und Behandlung ermöglicht.
In der vorliegenden Dissertation wird auf diesen Ergebnissen basierend der Goldstandard der aktuellen ADHS-Diagnostik unter Beachtung der Leitlinien diskutiert. Die untersuchten CPTs werden unter Berücksichtigung der Gütekriterien guter diagnostischer Verfahren überprüft. Das Potenzial neuropsychologischer Testverfahren im Hinblick auf die Steigerung von Objektivität, Validität und Differenziertheit der Diagnosen wird untersucht und Empfehlungen für die klinische Anwendung formuliert.
Einführung: Eitrige und abszedierende Infektionen sind ein häufiges Problem in der zahnärztlichen, oral- und kieferchirurgischen Praxis. Bei entsprechender Indikation finden Antibiotika zur Therapie von odontogenen Infektionen oder Weichteilinfektionen im Bereich des Kopfes Einsatz. Auch prophylaktische Gaben von Antibiotika sind in diesem Fachgebiet nicht selten. Deswegen sollte die kalkulierte antiinfektive Chemotherapie auf soliden pharmakologischen Daten beruhen.
Material und Methoden: Von 520 Patienten der mund-kiefer-gesichtschirurgischen Praxisklinik Kaufbeuren wurden die 1.182 antibiotischen in vitro Testungen aus dem Zeitraum 22.11.2010 bis 31.12.2016 ausgewertet. Das Durchschnittsalter der 51% weiblichen und 49% männlichen Patienten betrug 49,1 Jahre. Die Patienten wurden stratifiziert nach Diagnosen, Gesundheitszustand und Alter. Es wurden die Ergebnisse der Suszeptibilitätstestungen folgender gängiger Antibiotika ausgewertet: Amoxicillin/Clavulansäure, Ampicillin, Oxacillin, Penicillin G/V, Cefazolin, Cefuroxim, Cefpodoxim, Azithromycin, Clarithromycin, Erythromycin, Ciprofloxacin, Levofloxacin, Moxifloxacin, Ofloxacin, Clindamycin, Gentamycin, Cotrimoxazol, Doxycyclin und Metronidazol.
Ergebnisse: Im Mittel (alle getesteten Keime) liefern Amoxicillin/Clavulansäure (96,6%), Cefpodoxim (95,7%), Cefuroxim (90,1%) und Moxifloxacin (91,0%) durchgängig sehr gute Sensibilitätswerte bei hoher statistischer Signifikanz (p<0,001).
Für Ampicillin (86,3%), Cefazolin (85,5%), Levofloxacin (82,5%), Cotrimoxazol (77,5%), Doxycyclin (75,0%), Penicillin G/V (72,5%), Clindamycin (61,8%), Azithromycin (59,9%), Clarithromycin (59,6%), Oxacillin (54,0%), Erythromycin (51,7%) und Ciprofloxacin (36,2%) lagen die getesteten durchschnittlichen Sensibilitäten deutlich niedriger mit je nach Untergruppe deutlichen Unterschieden.
Konklusion: Die von uns ermittelten in vitro Suszeptibilitäten von Amoxicillin/ Clavulansäure, Cefpodoxim, Cefuroxim und Moxifloxacin unterstützen die Empfehlung zum therapeutischen Einsatz bei odontogenen Infektionen oder Weichteilinfektionen im Kopf-Hals-Bereich sowie deren prophylaktische Verwendung zum Beispiel bei Endokarditis-Risiken in der Zahnmedizin oder Mund-/Kiefer-/Gesichtschirurgie.
Über zwei Drittel aller Menschen erleben in ihrem Leben mindestens ein traumatisches Ereignis (Kessler et al., 2017). Gerade nach interpersonellen Traumatisierungen ist die Rate der Betroffenen, welche eine posttraumatische Belastungsstörung (PTBS) entwickeln, sehr hoch (z. B. ca. 50% nach sexuellem Missbrauch; Hauffa et al., 2011). In der Vergangenheit wurden Angst- und Ohnmachtsgefühle als zentrale der PTBS zu Grunde liegende Emotionen aufgefasst (Foa & Kozak, 1986). Neuere Forschungsbefunde legen jedoch nahe, dass traumabezogene Schuld- und Schamgefühle auch eine wichtige Rolle bei der Entstehung und Aufrechterhaltung der PTBS spielen (z. B. Badour et al., 2017). Dabei leiden besonders Betroffene von interpersonellen Gewalterfahrungen unter diesen Gefühlen (z. B. Badour et al., 2017).
Im Hinblick auf die psychotherapeutische Behandlung der PTBS haben sich traumafokussierte Verfahren als wirksam erwiesen (z. B. Lewis et al., 2020). Hohe Drop-out (z. B. Swift & Greenberg, 2014) und Nonresponse Raten (Fonzo et al., 2020) geben jedoch Hinweise darauf, dass nicht allen PTBS Patient*innen mit diesen Verfahren ausreichend geholfen werden kann, wobei insbesondere Patient*innen mit interpersonellen Traumatisierungen weniger gut davon zu profitieren scheinen (z. B. Karatzias et al., 2019). Zudem hat sich gezeigt, dass Schuldgefühle auch nach einer erfolgreichen PTBS Behandlung weiter persistieren (Larsen et al., 2019). Demnach besteht ein Bedarf an alternativen Therapieverfahren für Patient*innen mit interpersonellen Traumatisierungen und/oder Schuld- und Schamgefühlen.
Besonders vielversprechend sind hierbei achtsamkeitsbasierte Interventionen, die bereits in der PTBS Behandlung eine zunehmend bedeutsame Rolle spielen (Hopwood & Schutte, 2017). Eine wichtige Voraussetzung für die weitere Erforschung dieser Interventionen sind valide und reliable Verfahren zur Veränderungsmessung von Achtsamkeit (Isbel et al., 2020). So scheinen bisherige Studien jedoch hauptsächlich fragebogenbasierte Maße zur Erfassung von Veränderungen in Trait-Achtsamkeit eingesetzt zu haben, obwohl diese Interventionen eher auf die Steigerung von State-Achtsamkeit abzielen (Goodman et al., 2017). Darüber hinaus kristallisierten sich methodische Kritikpunkte in Bezug auf die Validität von Fragebögen zur Erfassung von Trait-Achtsamkeit heraus (van Dam et al., 2018). Demgegenüber erfassen Experience-Sampling Ansätze (z. B. Mindful-Breathing Exercise, MBE; Burg & Michalak, 2011) eher Aspekte der State-Achtsamkeit, sind jedoch in klinischen Untersuchungsstichproben bisher kaum untersucht worden. Darauf aufbauend fokussierte die erste Forschungsfrage der Dissertation die Untersuchung der MBE im klinischen Kontext. Ein Hauptbefund der Studie zeigte, dass die MBE bei PTBS Patient*innen hinsichtlich ihres Prädiktionswertes für die PTBS Symptome Übererregung und Intrusionen gegenüber fragebogenbasierter Trait-Achtsamkeit überlegen war. Mögliche Wirkmechanismen achtsamkeitsbasierter Interventionen könnten demnach durch den Einsatz der MBE besonders gut abgebildet werden.
Innerhalb der achtsamkeitsbasierten Interventionen kommt in der Behandlung der PTBS am häufigsten die Mindfulness Based Stress Reduction (MBSR; Kabat-Zinn, 2013) als standardisierte Gruppenintervention zum Einsatz (Boyd et al., 2018). Jedoch scheint die MBSR insbesondere für PTBS Patient*innen mit interpersonellen Traumatisierungen nicht eins-zu-eins anwendbar zu sein (Müller-Engelmann et al., 2017). Buddhistische Metta-Meditationen (dt.: Liebende Güte; Salzberg, 2002) sind vor diesem Hintergrund eine vielversprechende Ergänzung zu achtsamkeitsbasierten Interventionen. Metta-Meditationen zielen darauf ab, sich selbst sowie allen anderen Lebewesen bedingungsloses Wohlwollen und Freundlichkeit entgegen zu bringen (Bodhi, 2010). Metta-Meditationen sind noch weniger gut in der klinischen Forschung etabliert. Erste Befunde deuten jedoch darauf hin, dass sie bei PTBS Patient*innen zu einer Reduktion der PTBS Symptomatik führen können (z. B. Kearney et al., 2021). Folglich wurde im Rahmen der zweiten Forschungsfrage eine neue Intervention entwickelt und evaluiert, welche sich an den Bedürfnissen von PTBS Patient*innen mit interpersonellen Traumatisierungen orientiert. Sie kombiniert kürzere, PTBS spezifische Achtsamkeitsübungen mit angepassten Übungen aus MBSR sowie Metta-Meditationen (= Trauma-MILOKI). Trauma-MILOKI zeigte sich in einer multiplen Baseline Studie wirksam zur Reduktion der PTBS Symptome sowie zur Steigerung des Wohlbefindens.
Ein Wirkmechanismus von Metta-Meditationen ist die Förderung positiver Emotionen sowie des Gefühls sozialer Verbundenheit (Salzberg, 2002), weswegen sie auch besonders gut geeignet scheinen, traumabezogene Schuld- und Schamgefühle zu reduzieren. Darüber hinaus haben sich unter den etablierten Therapieverfahren v. a. kognitive Ansätze zur Reduktion von Schuldgefühlen als wirksam erwiesen (Resick et al., 2008)...
Aufbau: Acoustic Radiation Force Impulse (ARFI)- Bildgebung ist eine auf der konventionellen Ultraschall- Bildgebung basierende Elastographie- Methode, die die quantitative Messung der Festigkeit und Elastizität von Gewebe ermöglicht. Das Ziel der vorliegenden Studie war es, ARFI- Bildgebung für die Differenzierung von Schilddrüsenknoten zu evaluieren und mit der bereits gut erprobten qualitativen Messmethode der Real-Time Elastographie (RTE) zu vergleichen.
Material und Methoden: ARFI- Bildgebung basiert auf der Aussendung von akustischen Impulsen in Gewebe, wodurch lokale Gewebeverschiebungen hervorgerufen werden. Die dabei entstehenden Transversalwellen wiederum werden über auf Korrelation basierende Methoden mittels Ultraschallwellen detektiert und in m/s angegeben. Einschlusskriterien der Studie waren: Knoten ≥ 5 mm sowie eine zytologische/histologische Aufarbeitung. Alle Patienten erhielten eine konventionelle Ultraschall- Untersuchung, eine Real-Time Elastographie sowie eine ARFI- Bildgebung.
Ergebnisse: Es standen 158 Knoten aus 138 Patienten zur Analyse zur Verfügung. 137 Knoten erbrachten bei der zytologischen/histologischen Aufarbeitung ein benignes Ergebnis, 21 Knoten hingegen wurden als maligne eingestuft. Die mittlere Geschwindigkeit der Messungen der ARFI- Bildgebung in gesundem Schilddrüsengewebe betrug 1,76 m/s, in benignen Knoten 1,90 m/s und in malignen Knoten 2,69 m/s. Es konnte kein signifikanter Unterschied der mittleren Geschwindigkeit zwischen gesundem Schilddrüsengewebe und benignen Knoten ermitteltet werden, wohingegen ein signifikanter Unterschied zwischen malignen Knoten und gesundem Schilddrüsengewebe (p= 0,0019) einerseits und benignen Schilddrüsenknoten (p=0,0039) andererseits bestand. Für die diagnostische Genauigkeit bei der Diagnose von malignen Schilddrüsenknoten konnte kein signifikanter Unterschied zwischen RTE und ARFI- Bildgebung festgestellt werden (0,74 vs. 0,69, p=0,54). Die Kombination von RTE und ARFI- Bildgebung erhöhte die Spezifität bei der Diagnose von malignen Schilddrüsenknoten von 72% (nur RTE) auf 92% (kombiniert).
Schlussfolgerungen: ARFI- Bildgebung kann als zusätzliche Methode bei der diagnostischen Aufarbeitung von Schilddrüsenknoten genutzt werden und liefert dabei einen hohen negativen prädiktiven Wert sowie vergleichbare Ergebnisse wie die RTE.
Als zellulärer Sensor für Gallensäuren und als Regulator zahlreicher metabolischer und inflamma-torischer Gene stellt der nukleäre Farnesoid X Rezeptor (FXR) ein vielversprechendes neues Wirkstofftarget dar. Die Aktivierung von FXR mit natürlichen oder synthetischen Liganden führte in vitro und in vivo zu zahlreichen wünschenswerten Effekten wie gesteigerter Insulinfreisetzung, verringerter Insulinresistenz oder verbessertem Lipidprofil. Daneben stellt die Aktivierung von FXR ein Prinzip zur Behandlung von Lebererkrankungen wie nicht-alkoholischer Fettleber und primärer billiärer Zirrhose dar, das mit dem FXR-Agonisten Obeticholsäure bereits in klinischen Studien überprüft wird. Existierende synthetische FXR-Liganden sind Fettsäure- bzw. Gallensäuremimetika und imitieren die physiologischen FXR-Agonisten. Die meisten synthetischen FXR-Liganden sind jedoch aufgrund von Toxizität, geringer Selektivität oder schlechter Bioverfügbarkeit nicht zur wie-teren klinischen Entwicklung geeignet. Sie stellen außerdem vornehmlich vollagonistische FXR-Ligan-den dar, doch die klinischen Erfahrungen mit Liganden anderer nukleärer Rezeptoren wie den Peroxi-somen Proliferator-aktivierten Rezeptoren (PPAR) oder den Estrogenrezeptoren (ER) haben gezeigt, dass eine zu starke Aktivierung eines Ligand-aktivierten Transkriptionsfaktors Risiken erheblicher Nebenwirkungen bergen kann. Eine Möglichkeit, dieser Gefahr vorzubeugen, bietet die Entwicklung partialagonistischer FXR-Liganden, die den Rezeptor nur mit moderater Amplitude aktivieren.
In dieser Arbeit wurde ausgehend von der in einem virtuellen Screening identifizierten Leitstruktur 1, durch medizinisch chemische Optimierung und Studien zu den Struktur-Wirkungs-Beziehungen (SAR) ein potenter und selektiver FXR-Partialagonist entwickelt. Die drei Molekülteile der Leitstruktur 1 (azide Kopfgruppe, zentraler Anthranilamidkörper und Acylsubstituent) wurden einzeln hinsichtlich ihrer Potenz an FXR untersucht und optimiert. In der Untersuchung der SAR des Acylsubstituenten zeigten sich ein 2-Naphthoyl- und ein 4-tert-Butylbenzoylsubstituent der in 1 enthaltenen 4-Methylbenzoylgruppe überlegen. Unter Beibehaltung des 2-Naphthoylsubstituenten wurde hierauf durch selektive Methylierung bzw. Reduktion die Notwendigkeit beider Amidbindungen der Subs-tanzklasse für Aktivität an FXR nachgewiesen. Durch Erweiterung der aziden Kopfgruppe um einen zusätzlichen aromatischen Ring gelang eine weitere Potenzsteigerung, die sich durch eine Methyl-gruppe an 6-Position dieses neu eingeführten Ringes noch erhöhen ließe. Andere Substituenten am aromatischen Ring der Kopfgruppe führten dagegen an keiner Position zu einer Aktivitätsverbes-serung. Der Austausch der freien Carbonsäure durch metabolisch stabilere Bioisostere wie ein Methylketon oder ein Nitril stellte sich als ohne Aktivitätsverlust möglich heraus, wobei das Tetrazol als klassisches Carbonsäurebioisoster eine Ausnahme mit geringerer Potenz bildete. Die entscheiden-de Steigerung der Aktivität der Acylanthranilamide an FXR resultierte aus der Einführung eines zusätzlichen Substituenten in 4-Position des zentralen aromatischen Ringes, wobei eine Methoxy-gruppe zur größten Potenz führte. Das resultierende Anthranilamid 2 stellt einen hochpotenten FXR-Partialagonisten mit einem EC50-Wert von 8±3 nM in einem flFXR-Reportergenassay bei 18±1% Maximalaktivierung dar und ist der Leitstruktur somit um mehr als einen Faktor 1000 überlegen.
Die optimierte Verbindung 2 wurde aufgrund ihrer großen Potenz ausführlich in vitro pharma-kologisch charakterisiert. Dabei stellte sich die Substanz als metabolisch sehr stabil, moderat löslich in Wasser und gemessen an ihrer hohen Aktivität an FXR als wenig toxisch heraus. Darüber hinaus er-wies sich 2 als selektiv für FXR über den membranständigen G-Protein-gekoppelten Gallen-säurerezeptor TGR5 (Faktor >1000) sowie über die nukleären Rezeptoren PPARα (>1000), PPARγ (~375) und PPARδ (>1000). Bei der Quantifizierung seiner Effekte auf die FXR-Targetgene SHP, CYP7A1, BSEP, OSTα und IBABP durch qRT-PCR übte 2 im Bereich 0,1 µM bis 10 µM einen konzen-trationsunabhängigen partialagonistischen Effekt von etwa 40% des Effektes des physiologischen FXR-Agonisten Chenodeoxycholsäure (CDCA) aus. Mit der Verbindung 2 wurde somit ein hochpotenter, selektiver und metabolisch stabiler FXR-Partialagonist entwickelt und charakterisiert, der sich für künftige in vitro und in vivo Studien zu partieller FXR-Aktivierung empfehlen kann.
Die Arbeit untersucht die Ad-hoc-Publizität unter der Geltung der MAR. In der Arbeit werden zuerst das Informationsmodell auf dem Kapitalmarkt und die Erforderlichkeit und Notwendigkeit der Regulierung des Kapitalmarkts durch gesetzliche Informationspflichten analysiert. Mithilfe eines Rückblicks auf die Entwicklung der Ad-hoc-Publizität in den Rechtsnormen wird ihr Sinn und Zweck untersucht. Die rechtlichen Anforderungen an Ad-hoc-Publizität unter der Geltung der MAR werden in einem weiteren Schritt untersucht. Der Schwerpunkt liegt dabei auf den Tatbestandsmerkmalen der Ad-hoc-Publizitätspflicht und dem Aufschub der Veröffentlichung. Darüber hinaus werden die Rechtsfolgen im Falle von Pflichtverstößen, insbesondere Anspruchsgrundlagen nach §§ 97, 98 WpHG analysiert. Im Hinblick auf die Ad-hoc-Publizität nach dem chinesischen Recht werden ihre historische Entwicklung in Rechtsnormen und ihr Sinn und Zweck untersucht. Eine dogmatische Analyse der Ad-hoc-Publizitätspflicht und der Rechtsfolgen beim Pflichtverstoß nach dem geltenden chinesischen Recht wird dann durchgeführt. Schließlich wird die Ad-hoc-Publizität nach der MAR und dem chinesischen Recht verglichen.
Im rechtsvergleichenden Teil der Untersuchung identifiziert der Verfasser bestimmte Besonderheiten und Defizite im chinesischen Recht. Den Regelungsansätzen der beiden Rechtssysteme liegen unterschiedliche rechtpolitische Zielsetzungen zugrunde. In der EU und in Deutschland steht der Konnex zum Insiderhandel im Vordergrund, denn diesem wird durch die Ad-Hoc Meldung der Boden entzogen. In China handelt es sich bei der Ad-hoc-Publizität konzeptionell eher um einen Annex zur Regelpublizität. Damit geht Hand in Hand, dass die Verfolgung zivilrechtlicher Ansprüche aufgrund falscher Ad-hoc-Meldungen in China der behördlichen Genehmigung bedarf. Der Verfasser macht auf dieser Grundlage Vorschläge zur (behutsamen) Rechtsfortbildung in China nach europäischem Vorbild.
Adaptive Radiation und Zoogeographie anisakider Nematoden verschiedener Klimazonen und Ozeane
(2013)
Anisakide Nematoden sind Parasiten aquatischer Organismen und weltweit in marinen Habitaten verbreitet. Ihre Übertragungswege sind tief im marinen Nahrungsnetz verwurzelt und schließen ein breites Spektrum pelagisch/benthischer Invertebraten (z.B. Cephalopoda, Gastropoda, Crustacea, Polychaeta) und Vertebraten (z.B. Teleostei, Elasmobranchia, Cetacea, Pinnipedia, Aves) als Zwischen- bzw. Endwirte ein. Aufgrund der hohen Befallszahlen u.a. in der Muskulatur und Viszera kommerziell intensiv genutzter Fischarten (z.B. Clupea harengus, Gadus morhua, Salmo salar) sowie ihrer Rolle als Auslöser der menschlichen Anisakiasis nehmen die Vertreter der Gattung Anisakis unter den anisakiden Nematoden eine Sonderstellung ein. Anhand der verbesserten Diagnostik und der Etablierung sowie Weiterentwicklung molekularbiologischer Methoden ist es in den letzten zwei Dekaden gelungen, die bestehende Taxonomie und Systematik der Gattung Anisakis zu erweitern bzw. zu revidieren. Aktuelle molekulare Analysen weisen auf die Existenz von insgesamt neun distinkten Arten hin, welche eine hohe genetische Heterogenität und Wirtsspezifität aufweisen, äußerlich jedoch nahezu identisch sind (sog. kryptische Arten). Trotz kontinuierlicher Forschung auf dem Gebiet ist das Wissen über die Biologie von Anisakis immer noch unzureichend.
Die vorliegende Dissertation ist in kumulativer Form verfasst und umfasst drei (ISI-) Einzelpublikationen. Die Zielsetzung der durchgeführten Studien bestand unter anderem darin, unter Verwendung molekularbiologischer und computergestützter Analyseverfahren, Fragestellungen zur Zoogeographie, (Co-)Phylogenie, Artdiagnostik, Lebenszyklus-Ökologie sowie des bioindikatorischen Potentials dieser Gattung zu bearbeiten und bestehende Wissenslücken zu schließen.
Die Verbreitung von Anisakis, welche bisher ausschließlich anhand von biogeographischen Einzelnachweisen abgeschätzt wurde, konnte durch den angewandten Modellierungsansatz erstmalig interpoliert und in Kartenform vergleichend dargestellt werden. Dabei wurde gezeigt, dass die Verbreitung von Anisakis spp. in den Ozeanen und Klimazonen nicht gleichmäßig ist. Die Analysen deuten auf die Existenz spezies-spezifischer horizontaler und vertikaler Verbreitungsmuster hin, welche neben abiotischen Faktoren durch die Verbreitung und Abundanz der jeweiligen Zwischen- und Endwirte sowie deren Tiefenverteilung und Nahrungspräferenzen geprägt sind.
Durch die umfangreiche Zusammenstellung und anschließende Kategorisierung der (mit molekularen Methoden) geführten Zwischenwirtsnachweise konnten indirekte Rückschlüsse über die vertikale Verbreitung von Anisakis spp. entlang der Tiefenhabitate gezogen werden.
Während Anisakis auf Gattungsebene in der gesamten Wassersäule entlang verschiedener Tiefenhabitate abundant ist, wurde für die stenoxene Art Anisakis paggiae ein meso-/bathypelagisch orientierter Lebenszyklus postuliert. Durch den Einbezug eines breiten Spektrums (paratenischer) Zwischen- und Transportwirte aus unterschiedlichen trophischen Ebenen werden Transmissionslücken im Lebenszyklus der Gattung weitestgehend minimiert und der Transmissionserfolg auf den Endwirt, und damit die Wahrscheinlichkeit einer erfolgreichen Reproduktion, erhöht. Ausgeprägte Wirtspräferenzen sowie phylogenetische Analysen des ribosomalen ITS-Markers stützen eine Theorie zur co-evolutiven Anpassung der Parasiten an ihre Endwirte. Anisakis eignet sich daher unter Einschränkungen als Bioindikator für die vertikale und horizontale Verbreitung und Abundanz der Endwirte und lässt Rückschlüsse auf trophische Interaktionen im Nahrungsnetz zu. Durch die weitere Beprobung von Zwischenwirten aus verschiedenen trophischen Ebenen in zukünftigen Studien, kann eine genauere Bewertung potentiell abweichender Lebenszyklus-Strategien gewährleistet werden. Insbesondere ist die Datenlage zur Prävalenz und Abundanz anisakider Nematoden in Cephalopoda und Crustacea noch unzureichend. Die Probennahme sollte dabei unter besonderer Berücksichtigung bislang wenig oder unbeprobter geographischer Regionen, Tiefenhabitate und Wirtsarten durchgeführt werden.
Adaptormoleküle zur Rekrutierung von Transkriptionsfaktoren oder miRNAs an nicht native Bindestellen
(2020)
Die Kontrolle der Genexpression ist eines der großen Ziele der chemischen Biologie. Gemäß dem klassischen Dogma der Molekularbiologe verläuft der Fluss der genetischen Information über die Transkription von DNA zur messenger RNA (mRNA) und durch die Translation von mRNA zu Proteinen. Auch wenn der ursprünglichen Formulierung dieses Dogmas verschiedene Aspekte hinzugefügt wurden, bleibt die Kernaussage unverändert. Eine Störung der Genexpression ist in vielen Fällen die Ursache für schwerwiegende Erkrankungen. Klassische Therapeutika, die im Allgemeinen aus kleinen Molekülen bestehen, können pathogene Proteine spezifisch binden und inhibieren. Allerdings greifen diese Wirkstoffe am Ende der Produktionskette ein und nicht alle Proteine können adressiert werden. Im Gegensatz dazu könnte ein Eingriff auf der Ebene der Transkription oder Translation die Expression der pathogenen Proteine auf ein normales Maß senken oder ganz verhindern. Als entscheidende Regulatoren der Genexpression stellen Transkriptionsfaktoren (TFs) einen interessanten Angriffspunkt zur Kontrolle der Transkription dar. TFs können über den Kontakt zu weiteren Proteinen die RNA Polymerase II rekrutieren und so die Transkription starten. Für die Translation ist die Halbwertszeit der mRNA ein entscheidender Faktor. Die Lebensdauer wird durch eine Vielzahl an Proteinen und micro RNAs (miRNAs) reguliert. MiRNAs sind kurze Oligonukleotide, die in Argonautproteine eingebaut werden können. Die daraus resultierenden RNA-induced silencing complexes (RISCs) sind in der Lage, den Abbau der mRNA einzuleiten. Sowohl TFs als auch RISCs besitzen dabei Nukleinsäure-bindende Untereinheiten, die mit spezifische Sequenzen assoziieren. In gewisser Weise ist die molekulare Erkennung der Nukleinsäuren vergleichbar mit einer Postsendung, die aufgrund der Adresse korrekt zugestellt wird. Um in diesem Bild des täglichen Lebens zu bleiben: Bei einem Wechsel des Wohnorts ist es üblich, einen Nachsendeauftrag zu stellen. Dabei wird die alte Anschrift auf den Postsendungen mit einem neuen Adressetikett überklebt und die Zustellung erfolgt an den neuen Wohnort. Das zentrale Thema dieser Dissertation ist, dieses „Umetikettieren“ auch auf TFs und RISCs zu übertragen. Hierbei ist es notwendig, die Nukleinsäure-bindenden Untereinheiten der Komplexe, also die „alte Adresse“, vollständig zu blockieren und gleichzeitig eine hohe Affinität zu einer neuen Sequenz zu erzeugen. Hierzu könnten bifunktionale Adaptormoleküle verwendet werden.
Die Adaptoren für die Rekrutierung von TFs müssen in der Lage sein, sowohl die doppelsträngige DNA (dsDNA) als auch einen TF zu binden (Abbildung I). Dabei sollte eine Selbstbindung des Adaptors vermieden werden. In dieser Arbeit wurde der TF Sp1 als Ziel gewählt, da er an GC-reiche dsDNAs bindet. Dies ermöglicht die Wahl einer AT- oder GA reichen DNA-Sequenz als Ziel der Umleitung, wodurch eine Selbstbindung des Adaptors minimiert werden sollte. Zur Erkennung der DNA war geplant, Pyrrol-Imidazol-Polyamide (PIPs), triplexbildende Oligonukleotide (TFOs) oder pseudokomplementäre PNAs einzusetzen. Für Letztere war es möglich, eine neue Syntheseroute zu einem Fmoc geschützten Thiouracil-Monomer zu entwerfen. Dabei konnte eine selektive Alkylierung an der N1-Position des Thiouracils durchgeführt werden. Auf Basis der PIPs und der TFOs wurden jeweils verschiedene Adaptoren entworfen, deren Bindung zu ihren Zielen mit Band-Shift-Experimenten und im Fall der PIPs zusätzlich mit fluoreszenzbasierten Pulldown-Experimenten gezeigt wurde. Im Rahmen dieser Versuche zeigte sich, dass die PIP-basierten Systeme deutlich besser an die Zielsequenzen banden als die TFO-basierten Adaptoren. Das Konjugat K5a besaß hierbei die besten Eigenschaften. Weiterhin konnte mit diesem Adaptor in Pulldown-Experimenten gezeigt werden, dass Sp1 auf eine nicht kanonische AT-reiche Bindestelle umgeleitet wurde. Im Anschluss konnte das Sp1 in Western-Blots detektiert werden. Des Weiteren ließ sich zeigen, dass K5a in einem HeLa Lysat über mehrere Stunden stabil war und somit eine Anwendung in Zellkulturexperimenten möglich sein sollte.
Für die Rekrutierung der RISCs war lediglich eine Erkennung zweier einzelsträngiger RNA-Abschnitte notwendig. Hierzu wurden zwei LNAs oder LNA/DNA-Mixmere verwendet, die über einen Linker verknüpft waren (Abbildung I). Als Folge dieses Aufbaus mussten die beiden Adaptorhälften orthogonal sein, da eine Selbstbindung des Adaptors leichter als bei den TF-Adaptoren auftreten konnte. Diese Adaptoren wurden mit Band-Shift- und fluoreszenzbasierten Pulldown-Experimenten auf ihre Fähigkeit, eine Cy5-gelabelte miRNA auf eine Ziel-RNA umzuleiten, überprüft. Es konnte beobachtet werden, dass all-LNA Adaptoren sehr viele off-target-Effekt aufwiesen, welche die Umleitung von miRNAs verhinderte. Im Gegensatz dazu konnten mit DNA/LNA-Mixmeren eine vollständige Umleitung von miRNA-Modellen beobachtet werden. Es war ebenfalls möglich, spezifische RISCs aus HeLa-Lysaten mit unterschiedlichen Adaptoren in Pulldown-Experimenten zu isolieren und in nachfolgenden Western-Blots zu detektieren. Nachdem gezeigt war, dass eine Umleitung in vitro gelang, sollte die Funktion der Adaptoren in Zellkulturexperimenten geprüft werden. Allerdings konnten in diesen Versuchen keine eindeutigen Ergebnisse erhalten werden, sodass die biologische Relevanz der RISC-Umleitung bislang noch nicht bestätigt werden konnte.
Die Fragestellung der vorliegenden Arbeit betrifft die Rolle der spezifisch gegen Adenovirus Typ 5 und 7 sowie gegen das humane Herpesvirus 6 reagiblen CD4+ T-Lymphozyten als Surrogatmarker der virusspezifischen zellulären Immunität bei lungentransplantierten Patienten. Adenoviren und auch das humane Herpesvirus 6 sind wichtige Pathogene nach der Transplantation von soliden Organen und Knochenmark. Bei lungentransplantierten Patienten sind Adenovirusinfektionen mit einer hohen Mortalität verbunden. Die Reaktivierung des humanen Herpesvirus 6 ist ein Risikofaktor für die Entwicklung von CMV-vermittelten Erkrankungen bei Patienten unter immunsuppressiver Therapie. Bei nierentransplantierten Patienten kann die durchflusszytometrische Quantifizierung von spezifisch gegen Adenoviren und gegen CMV reagiblen CD4+ T-Zellen dazu beitragen, Patienten mit einem hohem Risiko für eine unkontrollierte Virusreplikation zu identifizieren. Die zelluläre Immunantwort bezüglich des humanen Herpesvirus 6 bei lungentransplantierten Patienten ist bisher kaum untersucht worden. Zur Klärung der Frage, inwieweit die durchflusszytometrische Analyse der de-novo-Zytokinsynthese von CD4+ T-Zellen Aussagen über die virusspezifische zelluläre Immunantwort zulässt, wurde bei 22 Patienten nach Lungentransplantation während 12 Monaten regelmäßig venöses Blut mit Adenovirus Typ 5 (Ad5)- und 7 (Ad7)- sowie humanem Herpesvirus 6 (HHV-6 )-Antigen inkubiert und der Anteil [%] von CD4+ TLymphozyten welche eine de-novo-Synthese von Interferon (INF)-γ und CD69 durchführten durchflusszytometrisch bestimmt. Bei n=6 Ad5 positiven Patienten ohne Infekt im Beobachtungszeitraum reagierten im Median 0,31% (Spannweite: 0,09-1,47%), bei n=5 Ad7 positiven Patienten ohne Infektion (kein Nachweis von Adenovirus 5-DNA [copies/ml]) im Beobachtungszeitraum im Median 0,34% (Spannweite: 0,08-1,58%) der CD4+ Lymphozyten, bei n=16 Ad5 negativen Patienten reagierten im Median 0,06% (Spannweite: 0,01-0,25%), bei n=16 Ad7 negativen Patienten 0,05% (Spannweite: 0,01-0,28%) der CD4+ T-Lymphozyten auf die Stimulation mit dem entsprechenden Virus-Antigen mit einer de-novo-Synthese von INF-γ und CD69. Im Gegensatz dazu konnte nach Stimulation mit HHV-6-Antigen bei n=4 HHV-6 positiven Patienten ohne Infektion im Beobachtungszeitraum keine INF-γ- und CD69-Neusynthese nachgewiesen werden. Die in dieser Arbeit gewonnenen Ergebnisse zeigen, dass die durchflusszytometrische Untersuchung Adenovirus-spezifischer CD4+ T-Zellen bei lungentransplantierten Patienten möglich ist. Es hat sich im Verlauf dieser Studie gezeigt, dass die Ergebnisse Ausgangspunkt für weitere Untersuchungen der virusspezifischen zellulären Immunantwort bei Transplantationspatienten sein können. In diesem Sinn ist die Untersuchung einer größeren Patientengruppe bei einer zentralen Durchführung der Methode sinnvoll. Im Bezug auf das humane Herpesvirus 6 bleibt es zu klären, ob auf der Basis von Modifikationen des von uns verwendeten durchflusszytometrischen Verfahrens Aussagen zur virusspezifischen Immunität von lungentransplantierten Patieten möglich sind.
Die Pathophysiologie der Bandscheibendegeneration (intervertebral disc degeneration, IVDD) und ihre molekularen Mechanismen sind noch in weiten Teilen unverstanden. Ihre Ursachen und Risikofaktoren sind vielfältig und schließen unter anderem Alter, Geschlecht, Umwelteinflüsse oder mechanische Belastungen mit ein.
Für das der Bandscheibe eng verwandte Knorpelgewebe wurde in aktuellen Studien der Einfluss des Sympathikus bzw. dessen Neurotransmitters Noradrenalin (NE) via adrenerger Rezeptoren (AR) auf die Zellproliferation, die Expression von Molekülen der extrazellulären Matrix und somit auch auf die Degeneration beschrieben. In Bandscheiben wurde bereits das Vorhandensein von sympathischen Nervenendigungen nachgewiesen, allerdings wurde die Expression der Adrenozeptoren hier noch nie untersucht. Das Ziel der vorliegenden Arbeit war also die Analyse der ARs im Gewebe der Bandscheibe und die Evaluation der Korrelation mit der Bandscheibendegeneration.
Das für die Analyse benötigte Gewebe stammt von Patienten, bei welchen eine Wirbelkörperverblockung (Spondylodese) durchgeführt wurde. Im Rahmen dieser Spondylodese wird das Bandscheibengewebe des betroffenen Segmentes entfernt. Der Degenerationsgrad der anonymisierten Proben wurde prä- und intraoperativ bestimmt und im entnommenen Gewebe sowie in isolierten Zellen die Expression aller bekannten ARs mittels reverse transcription polymerase chain reaction (RT-PCR) untersucht. Zum Nachweis der ARs auf Proteinebene wurden einzelne humane Proben auch immunhistochemisch analysiert. Des Weiteren wurde anhand von Wildtyp- und sogenannten SM/J-Mäusen, die eine spontane IVDD entwickeln, die Proteinexpression der ARs und der extrazellulären Matrix (ECM) von gesunden und geschädigten Bandscheiben an histologischen Schnitten verglichen. Schließlich wurde an isolierten und kultivierten humanen Zellen ein Stimulationsversuch mit Noradrenalin durchgeführt, um zu prüfen, ob es nach Aktivierung der ARs zu einer intrazellulären Signalweiterleitung kommt.
In Nativgewebe der humanen Bandscheibe konnte die messenger Ribonukleinsäure (mRNA) von α1a-, α1b-, α2a-, α2b-, α2c-, β1- und β2-ARs nachgewiesen werden. Nach siebentägiger Zellkultur im Monolayer präsentierte sich ein nur dezent abweichendes Genexpressionsmuster. Auf Proteinebene war das Signal des β2-AR nur im Bereich des Annulus fibrosus (AF) detektierbar jedoch nicht im Nucleus pulposus (NP). Selbiges war auch in murinen Schnitten festzustellen, wobei sich bei Wildtype (WT)-Mäusen hauptsächlich im inneren AF β2-positive Zellen fanden, während sich das Signal bei der SM/J-Maus weiter in Richtung des äußeren AF und des NP ausdehnte. α2a-AR und α2c-AR waren hingegen auf Proteinebene nicht nachweisbar. Bei der immunhistochemischen Untersuchung relevanter ECM-Moleküle zeigte sich für Kollagen II, Kollagen XII, cartilage oligomeric matrix protein (COMP) und Decorin (DCN) eine Verteilung, die mit der des β2-AR-Signals korreliert. Der Stimulationsversuch in humaner Zellkultur ergab eine Aktivierung der für die ARs relevanten Proteinkinase A (PKA)- und extracellular signal–regulated kinases (ERK1/2) -Signalwege.
In der vorliegenden Arbeit konnte zum ersten Mal die Existenz und Funktionalität von Adrenozeptoren im Bandscheibengewebe nachgewiesen werden. Unterschiede in der Expression der ARs, kombiniert mit Veränderungen der ECM-Zusammensetzung könnten ein Hinweis auf den Einfluss des Sympathikus bei IVDD sein. Die aktuelle demographische Entwicklung und die sich hieraus ergebende gesundheitsökonomische Belastung machen die Ergründung molekularer Mechanismen der IVDD und die daraus resultierende Entwicklung innovativer Behandlungsmethoden zu Kardinalfragen moderner orthopädischer Grundlagenforschung.
Diese Versuchsreihe beschäftigte sich mit der Fragestellung, ob günstige Handelsmarken- Zigaretten mehr Feinstaub als teure Markenzigaretten emittieren. Dabei wurde der Passivrauch untersucht, welcher durch das Verrauchen verschiedener Zigarettenmarken entstand. Feinstaub stellt heutzutage den wichtigsten einzelnen gesundheitsschädlichen Faktor in Innenräumen dar. Das Augenmerk liegt dabei hauptsächlich auf den feinen Partikeln (PM2,5, PM1). Tumore, chronische Atemwegserkrankungen und eine erhöhte Mortalität stellen nur einen Teil der massiven gesundheitlichen Folgen durch Feinstaub dar. Vulnerable Bevölkerungsgruppen wie Kinder und alte Personen sind besonders durch Passivrauch gefährdet. Die Ergebnisse der Versuchsreihe dienen als Grundlage, um den gesundheitsschädlichen Einfluss des Passivrauchs zu interpretieren. Günstige Handelsmarken-Zigaretten weisen, unter anderem wegen des beständig ansteigenden Zigarettenpreises als auch der anhaltenden Inflation in Deutschland, einen wachsenden Marktanteil auf. Daher müssen sie auch weiterhin in wissenschaftlichen Untersuchungen mit einbezogen werden.
Drei teure sowie drei günstige Zigarettenmarken wurden miteinander und mit der Referenzzigarette 3R4F der Universität Kentucky verglichen. Zu den teuren Marken zählten Marlboro, Camel und Nil. Die günstigeren Handelsmarken-Zigaretten waren Giants, Goldfield und Jakordia. Die Rauchpumpe „Automatic environmental tobacco smoke emitter“ (AETSE) ermöglichte in einem definierten Raum der abgeschlossenen Rauchkammer, Passivrauch zu erzeugen, ohne die menschliche Gesundheit zu gefährden. Ein standardisiertes Rauchprotokoll garantierte dabei reproduzierbare und vergleichbare Ergebnisse. Das Laser Aerosolspektrometer (LAS) Modell 1.109 der Firma Grimm wies eine Messspanne von 0,25 μm bis 32 μm auf. So konnte der Feinstaub gemessen und gruppiert werden. Obwohl der Versuchsaufbau nicht vollkommen realitätsgetreu war, entstand ein adäquater Vergleich der Feinstaubemissionen von (Handels-)Markenzigaretten.
PM10 und PM2,5 wurden erhoben, weil sie die von der EU und WHO standardisierten Messwerte für die Luftverschmutzung durch Feinstaub sind. Die Messung von PM1 rechtfertigt sich durch die stärker gesundheitsschädigende Komponente von Partikeln dieser Größenordnung. Für diese drei Größenfraktionen wurden die mittlere Konzentration Cmean sowie die Area Under The Curve (AUC) ermittelt. Die AUC stellt dabei die Höhe der Gesamtexposition durch Feinstaub dar.
Die Ergebnisse dieser Versuchsreihe zeigen, dass PM1 den größten Anteil der Feinstaubemission der getesteten Zigaretten ausmachte. Alle Zigarettenmarken haben in einem abgeschlossenen Raum Feinstaubmengen in gesundheitsgefährdender Menge produziert. Die Handelsmarke Jakordia emittierte beim Verrauchen generell weniger Feinstaub als alle anderen Zigarettenmarken. Im Allgemeinen konnte kein Unterschied zwischen den günstigen Handels- und den teuren Markenzigaretten festgestellt werden. Es ist wissenschaftlich belegt, dass sich jede Feinstaubkonzentration negativ auf die Gesundheit auswirkt. Die Ergebnisse können dementsprechend in Gänze unter dem Gesichtspunkt der Gesundheitsschädlichkeit eingestuft werden.
Aufgrund veralteter und unspezifischer, beziehungsweise fehlender Angaben zu den Inhaltsstoffen der einzelnen Zigarettensorten, konnte die Ursache der Unterschiede zwischen Jakordia und den anderen Marken nicht geklärt werden. Die Zigarettenhersteller müssen verpflichtet werden, die detaillierten Zusammensetzungen der Tabakprodukte den Behörden wie dem BMEL oder dem Bundesgesundheitsministerium zugänglich zu machen. Dies wäre ein wichtiger Bestandteil für die zukünftige Forschung und Risikobewertung der verschiedenen Inhalts- und Zusatzstoffe.
Arbeitslosigkeit und gesundheitlicher Status sind eng miteinander verbunden. Verlust sozialer Bindungen, Verschlechterung mentaler und physiologischer Gesundheit und damit einhergehend der Verlust an Lebensqualität lassen Morbidität und Mortalität in der Gruppe der Arbeitslosen im Vergleich zur erwerbstätigen Bevölkerung deutlich ansteigen [13, 15 – 21]. Körperliche Aktivität entsprechend internationaler Bewegungsempfehlungen [157] ist nachweislich dazu in der Lage positive gesundheitliche Effekte auf der individuellen Ebene zu erzielen [52, 55]. Dennoch zeigen arbeitslose im Vergleich zum Durchschnitt der bundesdeutschen Bevölkerung ein noch höheres Maß an körperlicher Inaktivität [24, 176] und nehmen Sport- und Bewegungsangebote sowie Präventionsangebote der Krankenkassen deutlich seltener wahr [10]. Programme zur Gesundheitsförderung bei Langzeitarbeitslosen sind generell noch selten und wenn solche Programme durchgeführt wurden mangelt es bisher meist an entsprechenden Evaluationskonzepten zur Wirksamkeit dieser Angebote [13]. Werden Angebote für die Zielgruppe initiiert, beinhaltet dies überwiegend die Einrichtung separater, zeitlich beschränkter Gruppenkurse ohne Folgeangebot. Die Durchführung solcher Angebote obliegt größtenteils zusätzlich qualifizierten Mitarbeitern der Jobcenter und nicht Fachkräften aus der Gesundheitsförderung [116, 117]. Bewegungsbezogene Programme zur Gesundheitsförderung bei Arbeitslosen sind insgesamt noch selten und objektive Daten zum Bewegungsverhalten der Teilnehmer bislang noch nicht verfügbar. Mögliche, aber bisher nur vereinzelt praktizierte Ansätze stellen Konzepte zur Bewegungsberatung (physical activity counseling) bzw. Vermittlung in Bewegungsangebote (exercise referral) dar. Vor diesem Hintergrund besitzen Erkenntnisbeiträge zur Qualitätssicherung und zur Entwicklung spezifischer Beratungs- und Vermittlungskonzepte zur bewegungsbezogenen Gesundheitsförderung bei speziellen Zielgruppen eine hohe Relevanz für das Forschungsfeld. In der vorliegenden Dissertationsschrift wurde aufbauend auf dem dargelegten Forschungsdefizit ein theoriegeleitetes Beratungs- und Vermittlungskonzept (AGILer) zur Steigerung körperlicher Aktivität entsprechend internationalen Standards und Empfehlungen [14, 122, 123] entwickelt und in Kooperation mit regionalen Jobcentern der Rhein-Main Region auf die Zielgruppe älterer Langzeitarbeitsloser übertragen. Ziel des Beratungs- und Vermittlungsansatzes ist es Langzeitarbeitslose für das Thema gesundheitsförderliche körperliche Aktivität (HEPA) im Alltag zu sensibilisieren und so den Umfang körperlicher Aktivität entsprechend den Leitlinien [157] auf ein gesundheitsförderliches Maß zu erhöhen sowie diese bisher schwer zu erreichende Personengruppe an bestehende Bewegungsangebote örtlicher Anbieter (Sportvereine, Volkshochschulen, etc.) anzubinden. Die Intervention wurde anhand zweier separater Studien hinsichtlich der Erreichbarkeit der Zielgruppe sowie deren Wirksamkeit auf das Bewegungsverhalten der Teilnehmer evaluiert. Primärzielparameter der ersten Querschnittsstudie zur Erreichbarkeit war die Teilnahmerate an Angeboten des Gesundheitssports in Abhängigkeit gesundheitlicher Parameter und des Geschlechts. Insgesamt 741 Langzeitarbeitslose (54,3 ± 3,6 Jahre, 4,5 ± 4,4 Jahre arbeitslos) hatten nach einem ersten Gruppeninformationsangebot die Möglichkeit sich weiterführend individuell durch ein Expertenteam gesundheitlich beraten und in bestehende Bewegungsangebote vermitteln zu lassen. Erfasst wurden der BMI, das Bewegungsverhalten (IPAQ – 7-Tage-Kurzversion) [130] und die selbsteingeschätzte Gesundheit (VAS 1-100) [132, 133] der Teilnehmer. Es konnte auf Grundlage berechneter Häufigkeitsverteilungen (Chi²-Test) eine signifikant höhere Teilnahmerate an gesundheitssportlicher Aktivität in der Gruppe der Frauen gegenüber der Gruppe der Männer detektiert werden (p=.038). Insgesamt 28,2% der Frauen und 21,7% der Männer begannen im Anschluss an die Beratung eine gesundheitssportliche Aktivität. Unterschiede zwischen aktiven und nichtaktiven Teilnehmern hinsichtlich bewegungs- und gesundheitsbezogener Kennwerte bestanden gemäß berechneter Mittelwertsunterschiede nur für die Gruppe der Männer. Männer mit einem erhöhten gesundheitlichen Risiko aufgrund von Bewegungsmangel (<150 Min. körperliche Aktivität/Woche), erhöhtem BMI(>30 kg/m²) und unterdurchschnittlichem Gesundheitsempfinden (VAS <50) begannen signifikant häufiger mit Gesundheitssport (p< .001) als die übrigen Männer der Stichprobe. Ihre Vermittlungschance in ein gesundheitssportliches Angebot war gemäß beobachteter Häufigkeitsverteilung um das 2,8 fache erhöht (95% CI 1,8 – 4,3). Die zweite Längsschnittstudie zur Wirksamkeit des Beratungsansatzes evaluiert erstmalig anhand objektiver Messgrößen die Effekte einer strukturierten Bewegungsberatung hinsichtlich der Veränderbarkeit des Bewegungsverhaltens in der Zielgruppe. Hierzu wurde eine Stichprobe 51 älterer Langzeitarbeitsloser (54,3 ± 3,6 Jahre, 4,8 ± 3,2 Jahre arbeitslos) ohne manifeste gesundheitliche Einschränkungen (attestiert durch den Hausarzt) mit dem Ziel einer Erhöhung körperlicher Aktivität im Alltag und der Möglichkeit zur Aufnahme eines strukturierten Bewegungsprogramms sportmedizinisch beraten. Weitere 21 langzeitarbeitslose (56,1 ± 2,8 Jahre, 4,8 ± 3,0 Jahre arbeitslos) und 17 erwerbstätige Personen (56,4 ± 3,4 Jahre) ohne Beratungs- oder Vermittlungsangebot bildeten die Kontrollgruppen. Die Umfänge körperlicher Aktivität aller 89 Probanden wurden vor und 12 Wochen nach der Beratung jeweils für 7 Tage mittels zweiachsiger Akzelerometrie (ActiGraph GT1M) gemessen. Im Ergebnis absolvierten insgesamt 58 Personen die Eingangs- und Ausgangsmessung. Zur Eingangsmessung zeigte die erwerbstätige Kontrollgruppe signifikant höhere Umfänge körperlicher Aktivität als die erwerbslosen Studienteilnehmer. Für Personen, die nach der Beratung in eine strukturierte Bewegungsaktivität vermittelt wurden, zeigte die mehrfaktorielle ANOVA eine signifikante Steigerung sowohl des Umfangs moderater bis intensiver körperlicher Aktivität (MVPA) von 26 ± 14 auf 35 ± 25 Min./Tag als auch des Gesamtumfanges körperlicher Aktivität von 207 ± 86 auf 288 ± 126 cpm. Personen die nur das Beratungsangebot wahrnahmen sowie die Kontrollgruppen zeigten keine Steigerungsraten körperlicher Aktivität. Schlussfolgernd zeigen die Untersuchungsergebnisse, dass bereits bei anderen Zielgruppen etablierte und evaluierte Beratungskonzepte entsprechend internationaler Empfehlungen zur Bewegungsförderung ebenso auf bisher weniger beachtete Zielgruppen wie beispielsweise Arbeitslose übertragen werden können. Die im Rahmen der vorliegenden Untersuchung erhöhte Erreichbarkeit gesundheitlich besonders gefährdeter Studienteilnehmer erscheint vor dem Hintergrund steigender Gesundheitskosten und der Zunahme vor allem chronischer Erkrankungen [177, 178] von besonderer Bedeutung und ist höher als in vergleichbaren Untersuchungen [11]. Es konnte gezeigt werden, dass der Beratungs- und Vermittlungsansatz geeignet ist, das Bewegungsverhalten Langzeitarbeitsloser nachweislich zu verbessern und den Umfang körperlicher Aktivitäten entsprechend den Leitlinien [157] zu erhöhen. Allerdings scheint, anders als bei anderen Zielgruppen [147, 149, 150], ein alleiniges Beratungsangebot nicht auszureichen um das Bewegungsverhalten in der Zielgruppe positiv zu beeinflussen. Dieses Ergebnis könnte allerdings auch auf dem nichtrandomisierten Studiendesign und daraus resultierenden Selektionseffekten beruhen. Insgesamt kann die vorliegende Arbeit einen wichtigen Beitrag zum Erkenntnisgewinn zur Effektivität spezifischer Beratungskonzepte bei bisher schwer zu erreichenden Zielgruppen beitragen. Weiterer Forschungsbedarf wird hinsichtlich der Nachhaltigkeit der Interventionseffekte gesehen.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Während der nationalsozialistischen Zeit und beginnend schon die Jahrzehnte davor, beobachtet man eine auffallende Zunahme von Jugendschriften aller Art, die auf altnordischer Literatur basierten. Es waren Adaptionen von Isländer- und Königssagas sowie der Snorra- und Lieder-Edda. Die Arbeit versucht Ursachen dafür zu finden und beschreibt dazu auch das Umfeld der Jugendlichen und die Strategien und Ziele, die man in der Erziehung im völkischen und nationalsozialistischen Sinn anhand der behandelten Literatur verfolgte.
Thema der vorliegenden Dissertation sind Einflussfaktoren und individuelle Unterschiede im akademische Selbstkonzept von Grundschülern. Das erste Kapitel thematisiert die Bestimmung des Selbstkonzepts, gibt einen Überblick über die theoretischen Wurzeln und beleuchtet unterschiedliche Selbstkonzeptmodelle. Das zweite Kapitel geht auf die Selbstkonzeptentwicklung ein und hebt dabei insbesondere das Internal/External-Frame-of-Reference Modell (I/E-Modell; Marsh, 1986) hervor, welches das Zusammenwirken von externalen (sozialen) und internalen (dimensionalen) Vergleichsprozessen bei der Selbsteinschätzung beschreibt. Auf Basis des I/E-Models werden in Studie 1 das akademische Selbstkonzept und die Schulleistung von Schülern der 1. bis 3. Klassenstufe miteinander in Beziehung gesetzt. Im Zentrum steht dabei die Frage, ab welcher Klassenstufe dimensionale Kontrasteffekte auftreten und welchen Einfluss die Lese-, Rechtschreib- und Mathematikleistung auf die korrespondierenden und nicht korrespondierenden Selbstkonzeptfaktoren haben. Es zeigen sich signifikant negative Pfade von der mathematischen Leistung auf das verbale Selbstkonzept und negative Pfade von der Leseleistung auf das mathematische Selbstkonzept ab der 3. Klasse. Ein Kontrasteffekt innerhalb der verbalen Domäne (Lesen und Schreiben) kann hingegen bei keiner der untersuchten Klassenstufen aufgezeigt werden.
Die zweite und dritte empirische Studie fokussieren mögliche Gruppenunterschiede im akademischen Selbstkonzept anhand bestimmter Schülermerkmale. In Studie 2 wird dabei geprüft, ob sich zwischen Jungen und Mädchen mit und ohne Migrationshintergrund Unterschiede im verbalen und mathematischen Selbstkonzept finden lassen. Kinder mit Migrationshintergrund zeigen trotz schlechterer schulischer Leistungen im Lesen und in Mathematik in diesen Bereichen ein höheres Selbstkonzept als Kinder ohne Migrationshintergrund.
Auch findet sich bereits in der ersten Klasse unter Jungen ein optimistischeres mathematisches und unter Mädchen ein optimistischeres verbales Selbstkonzept. Dies spiegelt sich auch in den tatsächlichen Leistungen der Kinder sowie den Lehrereinschätzungen wider. In Studie 3 wird geprüft, ob Kinder mit ADHS-Symptomen ein positiv illusorisches akademisches Selbstkonzept (Positive Illusory Bias, Hoza et al., 2002) haben. Es zeigt sich, dass zwar Kinder mit ADHS-Symptomen im Vergleich zu Kindern ohne ADHS-Symptome ihre Leistungen deutlich stärker überschätzen, allerdings nur, wenn keine Kontrolle des Schulleistungsniveaus erfolgt. Zudem schätzen sich Kinder mit ADHS-Symptomen in dem Leistungsbereich am besten ein, in dem sie auch am besten abschneiden. Der Positive Illusory Bias scheint also nicht spezifisch für die ADHS zu sein.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
Sedentäres Verhalten steht als Risikofaktor in Verbindung mit kardiovaskulären und metabolischen Erkrankungen sowie der Gesamtsterblichkeit. Die Unterbrechung sedentären Verhaltens durch körperlicher Aktivität wird mit einem verringerten Risiko für kardiovaskuläre und metabolische Erkrankungen in Zusammenhang gebracht. Ziel der Studie ist der Vergleich akuter Effekte aktiver Unterbrechungen während- und körperlicher Aktivität vor mehrstündigem sedentärem Verhalten auf metabolische Veränderungen, innerhalb einer Gruppe junger gesunder Frauen.
18 gesunde Frauen (25.6y±2.6, BMI 21.5 kg/m2±2.0) nahmen an einer balancierten Crossover-Studie mit Kontroll-(CTRL) und 2 verschiedenen Bewegungsarmen teil. Alle Studienarme umfassten eine 4 stündige Sitzphase und eine Frühstücksmahlzeit mit standardisierter Zusammensetzung und selbstgewählter Menge. Während der Bewegungsarme fuhren die Probandinnen 30min am Stück vor (PRE) oder in 5x je 6min als aktive Unterbrechung (BREAK) der Sitzphase auf einem Radergometer (70% VO2max). Es wurden Insulin-, Glucose- und Triacylglycerol-Blutwerte vor (Baseline) und zu 6 Zeitpunkten während der Sitzphase in allen 3 Studienarmen erfasst. Die Kinetik dieser metabolischen Parameter wurde mittels maximaler- und minimaler Differenz zum Baselinewert sowie „incremental Area Under the Curve“ (iAUC) als Hauptzielparameter erfasst. Die Untersuchung auf Unterschiede der Hauptzielparameter zwischen den Untersuchungsarmen wurde mittels Varianzanalysen unter Berücksichtigung der aufgenommenen Nahrungsmenge als Kovariate (ANCOVA) durchgeführt.
Die Analyse der Insulinkinetik zeigte geringere Serum Insulinkonzentrationen im Zeitverlauf (iAUC) im Untersuchungsarm mit aktiven Unterbrechungen (BREAK). Weiterhin war in BREAK die maximale Differenz zum Baselinewert der Insulinkonzentration verglichen zur Bedingung ohne Aktivität (CTRL) niedriger. Die Kinetik der Blutglukose und Serum Triacylglycerolkonzentration unterschied sich nicht zwischen den Untersuchungsarmen. Die aufgenommene Nahrungsmenge zeigte einen deutlichen Einfluss auf die Kinetik der Insulin und Glukosekonzentration.
Die Resultate bestätigen spezifische Effekte von aktiven Unterbrechungen auf die zelluläre Glukoseaufnahme während sedentären Verhaltens. Die Nahrungsmenge beeinflusst das Ausmaß der postprandialen metabolischen Veränderungen während sedentären Verhaltens. Zukünftige Studien sollten den Einfluss der Häufigkeit und zeitliche Anordnung von Pausen in Abhängigkeit der Nahrungsaufnahme überprüfen.
Einleitung und Hintergrund: Self-Myofascial-Release (SMR), eine in den letzten Jahren populär gewordene Trainingsform, beschreibt das Training mit sog. Hartschaumrollen oder anderer Hilfsmittel zur Selbstmassage. Mit dem Ziel der Nachahmung einer manuellen Behandlung übt der Trainierende mit dem eigenen Körpergewicht oder etwa einem Massagestick Druck auf das zu behandelnde Gewebe aus und bewegt sich rollend über das Sportgerät. Aktuelle Forschungsergebnisse deuten auf einen positiven Effekt von SMR auf Parameter der Beweglichkeit sowie der Regeneration hin, die zu Grunde liegenden Mechanismen sind bisher allerdings noch unklar. Bezüglich der Beweglichkeitsverbesserung könnten neurophysiologische Veränderungen im Bereich der Dehnwahrnehmung und Dehntoleranz eine Rolle spielen. Auf mechanischer Ebene könnte es analog zum statischen Stretching zu einer akuten Veränderung der viskoelastischen Gewebeeigenschaften kommen. Ebenso werden Effekte von SMR auf Gleiteigenschaften einzelner Faszienschichten postuliert. Das Ziel der vorliegenden Arbeit war daher die Evaluation der Akuteffekte von SMR auf die Beweglichkeit, die passive Gewebespannung und -steifigkeit sowie die Gleitbewegungen einzelner Faszienschichten am vorderen Oberschenkel.
Methodik: Nach Fallzahlplanung durchliefen in einem Cross-Over Studiendesign insgesamt 16 Probanden (w=6, m=10, 32±3 Jahre, 177,6±2,4cm, 78,2±5,2kg) alle der drei folgenden Interventionen in ausbalancierter, randomisierter Reihenfolge: a) 2x60 Sekunden SMR am vorderen Oberschenkel, b) 2x60s passives, statisches Stretching des vorderen Oberschenkels und c) eine passive Kontrollbedingung. Mindestens drei Tage vor Beginn des ersten Messtermins erhielten alle Probanden eine standardisierte Gewöhnungseinheit, in der alle Messungen sowie die SMR Intervention durchgeführt wurden. Die passive Gewebespannung und -steifigkeit bei 13, 9, 5 und 1 Grad vor dem individuellen Bewegungsende sowie die Position der ersten Dehnwahrnehmung wurden mittels isokinetischem Dynamometer (Biodex System 3 Professional), die aktive und passive Kniegelenksbeweglichkeit mittels ultraschallbasiertem 3D-Bewegunsanalysesystem (Zebris CMS20) vor sowie direkt nach der jeweiligen Intervention erhoben. Ebenso wurden Gleitbewegung einzelner Faszienschichten vor und nach der jeweiligen Intervention anhand von Ultraschallvideos (Siemens Acuson X300) und anschließender Cross-Correlation-Analyse berechnet. Die statistische Überprüfung auf Inter- und Intragruppeunterschiede erfolge nach Überprüfung der Anwendungsvoraussetzungen mittels Friedmann-Test und anschließendem post-hoc Wilcoxon-Test oder ANCOVA (Baselinewerte als Covariate) und post-hoc Vergleichen mit geschätzten Randmitteln und zugehörigen 95%-Konfidenzintervallen.
Ergebnisse: Die aktive und passive Gelenkbeweglichkeit verbesserte sich nach SMR im Mittel um 1,8° bzw. 3,4° signifikant. Nach statischen Dehnen war lediglich die Verbesserung der passiven Kniegelenksbeweglichkeit von im Mittel 3,2° signifikant, nach der passiven Kontrolle blieben aktive und passive Beweglichkeit unverändert. Der Winkel der ersten Dehnwahrnehmung vergrößerte sich SMR (+4,3° (1,4°-7,2°)) und Stretching (+6,7° (3,7°-9,6°)), blieb nach Kontrollbedingung jedoch unverändert (+0,3° (-2,5°-3,1°)). Passiver Gewebewiderstand und -steifigkeit veränderten sich nach keiner der Interventionen in keinem getesteten Winkel signifikant. Veränderungen in der Gleitbewegung einzelner Faszienschichten ergaben sich lediglich nach SMR. Die Gleitbewegung der tiefen Schicht gegenüber des Muskels sowie die Gleitbewegung zwischen oberflächlicher und tiefer Schicht verringerten sich nach SMR signifikant zur Baseline (-5,7mm (-11,3mm – -0,1mm) bzw. (-4.9mm (-9.1mm – -0.7mm)).
Diskussion: Die vorliegenden Ergebnisse bestätigen den positiven Einfluss von SMR auf die aktive und passive Beweglichkeit und liefern erste Hinweise bezüglich der zu Grunde liegenden Mechanismen. Während biomechanische Parameter wie passive Gewebespannung nach SMR und Stretching unverändert blieben, deuten Veränderungen der Dehnwahrnehmung auf einen Einfluss neurophysiologischer Mechanismen hinsichtlich akuter Effekte auf die Beweglichkeit hin. Die Ausschüttung verschiedener Neurotransmitter wie z.B. Oxytocin könnte Schmerz- und auch Dehnwahrnehmung nach SMR beeinflussen. Die Ergebnisse zeigen weiter, dass SMR zu einer Veränderung der Gleitbewegung einzelner Bindegewebsschichten am vorderen Oberschenkel führte. Diesbezüglich könnten veränderte thixotrophe Eigenschaften des losen Bindegewebes zwischen Faszie und Muskels sowie Veränderungen des Hydratationsgrades eine Rolle spielen.
Aus den Ergebnissen der vorliegenden Studie lassen sich verschiedene Implikationen für die Trainings- und Therapiepraxis ableiten. So eignet sich SMR u.a. als Alternative zu statischen Dehnmethoden zur akuten Verbesserung der Beweglichkeit, zur Veränderung der Dehnwahrnehmung (etwa bei akuten und schmerzhaften Bewegungseinschränkungen) und möglicherweise zur Normalisierung der Gleiteigenschaften einzelner Bindegewebsschichten. Unklar bleiben bisher die Übertragbarkeit der Ergebnisse auf andere Körperregionen sowie die Effekte von SMR bei Patienten mit strukturellen Bindegewebsveränderungen. Ebenso sind die langfristigen Effekte von SMR bisher unklar und bieten Anschlusspunkte zukünftiger Studien.
In Deutschland erkranken pro Jahr bis zu 12.000 Menschen neu an Leukämie. Leukämie ist eine schwere onkologische Erkrankung, bei der reifes Knochenmarkgewebe in Folge von Mutationen unreifer und defekter Vorläuferzellen (leukämischen Blasten) verdrängt wird. Dies führt zu einer zunehmend eingeschränkten Blutbildung. Akute Leukämieformen können unbehandelt innerhalb von wenigen Wochen zum Tode führen und erfordern deshalb eine umgehende Diagnostik sowie einen raschen Therapiebeginn. Heilungschancen bestehen dann, wenn durch die Transplantation von gesunden hämatopoetischen Stammzellen (HSZT) das erkrankte Knochenmark ausreichend ersetzt wird. Leider sind Abstoßungsreaktionen des Spendermaterials (engl.: Graft-versus-Host-Disease, GvHD) keine Seltenheit.
Natürliche Killerzellen (NK-Zellen) stellen die kleinste Lymphozytenpopulation im menschlichen Blut dar und werden dem angeborenen Immunsystem zugerechnet. Sie wurden erstmals 1975 durch die Forscher Kiessling, Klein et al. entdeckt.17 Aufgrund ihrer Fähigkeit bestimmte Tumorzellen in vitro zu töten, wächst das Interesse an der Erforschung ihrer aktivierenden und inhibierenden Oberflächenrezeptoren. Die Killer-Zell-Immunoglobulin-ähnlichen Rezeptoren (KIRs) bilden dabei eine besonders diverse NKZell-Rezeptorfamilie. Lokalisiert auf Chromosom 19 liegen bis zu 17 hochpolymorphe KIRGene. Die genetische Ausstattung und Oberflächenexpression variiert von Individuum zu Individuum und bildet die Voraussetzung für die vorhandene Diversität KIR-exprimierender NK-Zellen. NK-Zellen besitzen die Fähigkeit, Gewebezellen in „körpereigen“ oder „fremd“ zu kategorisieren. Inhibitorische Killer-Immunoglobulin-ähnliche Rezeptoren (iKIR) nutzen dazu HLA-Klasse-I-Proteine (MHC-I) auf der Oberfläche gesunder Zellen. Diese schützen sie vor einem zytotoxischen NK-Zell-Angriff. NK-Zellen durchlaufen im Vorfeld einen komplexen Ausbildungssprozess48, an dessen Ende lizensierte Effektorzellen stehen. Diese können mittels gezielter Zytolyse krebstransformierte, zellulär-gestresste, sowie viralinfizierte Zellen im intakten Organismus erkennen und abtöten.
Die Spenderauswahl ist ein wichtiger Faktor für den Erfolg einer Stammzelltransplantation. Infundierte Spender NK-Zellen schützen das Transplantat, indem sie als wirksame Effektorzellen verbleibende Leukämiezellen aktiv eliminieren. Diese wünschenswerte Nebenwirkung wird als Graft-versus-Leukämie (GvL)-Effekt bezeichnet. Ruggeri et al. konnte zeigen, dass insbesondere Transplantationsstrategien, die auf KIR-Ligand-Fehlpaarungen (engl.: KIR-HLA-mismatch) basieren, zu weniger Rückfällen, weniger GvHD und einem besseren Gesamtüberleben bei Patienten mit akuter myeloischer Leukämie (AML) nach HSZT führt. Der KIR-HLA-mismatch wird mittlerweile aufgrund ausreichender Datenlage bei der Auswahl passender NK-Zell-Spender berücksichtigt und die Untersuchung auf die An- bzw. Abwesenheit bestimmter KIR-Gene (Haplotypisierung)
mittlerweile neben der HLA-Typisierung standardisiert in vielen Instituten durchgeführt. Daneben finden sich immer mehr Hinweise dafür, dass bereits einzelne allelische Polymorphismen innerhalb der KIR-Gene einzelner Spender großen Einfluss auf die Funktionalität ihrer NK-Zellen nehmen. Die allelische Subtypisierung von KIRs stellt aufgrund stetig steigender Zahlen neu entdeckter Allele eine Herausforderung dar. Im Januar 2019 sind für KIR2DL1 bereits 66 Allele beschrieben und für KIR3DL1 sogar 150 Allele in der Immuno Polymorphism Database (IPD) hinterlegt.
Die vorliegende Arbeit präsentiert ein praktikables Subtypisierungsverfahren, um allelische Unterschiede innerhalb der Genloci der NK-Zell-Rezeptoren KIR2DL1 und KIR3DL1 zu untersuchen. Für die Experimente wurden NK-Zellen von 20 gesunden Spendern funktionell untersucht und KIR-genetisch analysiert. Ziel war es innerhalb dieser Individuen besonders potente NK-Zellspender zu identifizieren und diese anhand bestimmter Polymorphismen und/ oder der Expression von KIR-Rezeptoren zu charakterisieren. Bei der Subtypisierung der KIR2DL1-Gene konnten 12 verschiedene, bereits bekannte KIR2DL1-Allele bestimmt werden. Die häufigsten Allele waren dabei 2DL1*001, *00201, *00302, *00401 und *00403. 5 der 20 Spender konnten der funktionell hochpotenten R245–Allelgruppe (AS Arginin an Pos. 245) zugeordnet werden. Spender 13 zeigte bei negativer KIR2DL1-SSP eine vermeintlich neue Nullallelvariante, Spender 20 eine neue heterozygote Variante, resultierend in der Kombination eines Arginin mit Alanin (R/A). Bei der allelischer Subtypisierung von KIR3DL1 wurden 25 verschiedene, bereits bekannte KIR3DL1-Allele bei den 20 Spendern bestimmt. Spender 2 zeigt zahlreiche, vorwiegend homozygote Abweichungen von der Referenzfrequenz, insbesondere im Exon 5, und wurde als neue Allelvariante gewertet. Die häufigsten KIR3DL1-Allele waren 3DL1*00101, *002 und *087. Mittels durchflusszytometrischer Messung konnte gezeigt werden, dass das bekannte Nullallel 3DL1*0040101 bei Spender 14 zu keiner Oberflächenexpression des Rezeptors führt215, während Spendern 11 und 16 als Träger des 3DL1*00402 Allels eine Oberflächenexpression von rund 10% präsentierten. Um die Spender NK-Zellen der gebildeten Gruppen funktionell zu testen, wurden die NK-Zellen experimentell mit vier unterschiedlichen transgenen L721.221-Zelllinien stimuliert. Die funktionelle Potenz der
gespendeten NK-Zellen wurde mittels eines CD107-Degranulationsassays gemessen. Nach aktuellem Stand sind nur für 53 der 150 KIR3DL1-Allele die allelischen Expressionsmuster untersucht worden. Dies bedeutet im Umkehrschluss, dass für rund 65% der bekannten KIR3DL1-Allele Daten zur Funktionalität fehlen, und damit der größte Anteil der ermittelten Allele von 6 Spendern der unknown-Expression (KIR3DL1u/u) Gruppe zugeordnet wurde. Die Spender 4 und 19 der high-Expressiongruppe (KIR3DL1h/h), sowie Spender 5 und 10 der KIR3DL1u/u-Gruppe mit den Allelen 3DL1*053, *087, *109 und Spender 2 als Träger zweier neuer KIR3DL1-Allele, zeigten in toto die besten funktionellen Ergebnisse in den Experimenten gegen die verwendete B-lymphoblastoide L721.221-Zellinien. Die Ergebnisse der vorliegenden Arbeit zeigen, dass bei der Spenderauswahl für NK-Zellbasierten Immuntherapie neben der Genotypisierung die allelische KIR-Subtypisierung als wertvolles Werkzeug entschiedener berücksichtigt werden sollte. Dafür ist es jedoch notwendig weiter an KIR-Subtypisierung und -Gruppierung Strategien zu arbeiten, um Natürlichen Killerzellen Wege in die klinische Standardpraxis zu bahnen.
Sojabohnen sind aufgrund ihres hohen Proteingehaltes ein wichtiges Nahrungsmittel und insbesondere bei Kindern ein häufig austretendes allergenes Lebensmittel. Der einizige zur Zeit mögliche Schutz vor einer allergischen Reaktion auf Soja ist die strikte Vermeidung der Aufnahme. Die allergenen Substanzen sind Proteine und Glykoproteine. Es gibt eine Reihe von Produkten aus Soja, die kein oder nur geringe Mengen Protein enthalten, aber in zahlreichen Lebensmitteln enthalten sind. Die Prüfung der potenziellen Allergenität von solchen Produkten, wie z.B. Vitamin E aus Soja, ist von grundlegendem Interesse für allergische Personen. Vitamin E aus Soja wird vielen Produkten z.B. als Antioxidanz zugesetzt und müsste nach den rechtlichen Kennzeichnungsvorschriften als Allergen auf der Verpackung angegeben werden. Ein Ziel dieser Promotionsarbeit war daher die Entwicklung von sensitiven und spezifischen Detektionmethoden für den Nachweis von Sojaprotein in Tocopherol (VitaminE) aus der Sojabohne. Aber auch die Charakterisierung von Sojaallergenen für die Entwicklung von diagnostischen und therapeutischen Methoden ist wichtig. Das zweite Ziel der Arbeit war somit die genauere Charakterisierung von β-Conglycinin (Gly m 5) als Sojaallergen sowie die Identifizierung der IgE-bindenden Bereiche des untersuchten Proteins. Zum Nachweis, dass in dem hoch prozessierten Sojaprodukt Tocopherol kein Sojaprotein mehr vorhanden war, wurden mehrere proteinbiochemische und immunologische Methoden entwickelt und validiert. Der sojaspezifische ELISA zur Detektion von hydrophilen Sojaproteinen aus der Tocopherolmatrix mit einer realen Nachweisgrenze von 10 ppm zeigte eine gute Reproduzierbarkeit. Die Detektion von lipophilen, denaturierten und hydrophilen Sojaproteinen aus Tocopherol im Immunoblot mit einer Nachweisgrenze von 20 ppm war ebenfalls gut reproduzierbar. Der etablierte IgE Immunoblot mit Sojaallergikerseren wies eine vergleichbare Sensitivität auf. In keiner der 10 untersuchten Tocopherolproben wurde mit den etablierten sensitiven sojaspezifischen Methoden Sojaprotein detektiert. Bei in vivo Studien von klinischen Partnern wurde bei Sojaallergikern weder eine Reaktion auf Tocopherol im Hauttest noch in der oralen Provokation von 500 mg Tocopherol beobachtet. Dass Gly m 5 ein wichtiges Sojaallergen ist und als diagnostischer Marker für schwere allergische Reaktionen genutzt werden kann, wurde in einer früheren Publikation unserer Arbeitsgruppe beschrieben. Die genauere Charakterisierung von Gly m 5 in dieser Arbeit zeigte, dass es ein Hauptallergen bei sojaallergischen Kindern und bei Sojaallergikern mit anaphylaktischen Reaktionen darstellt. Dabei zeigten alle Gly m 5 sensibilisierten Sojaallergiker spezifisches IgE gegen eine der drei Gly m 5 Untereinheiten, das Gly m 5.03. Diese Untereinheit kann somit als diagnostischer Marker für eine Gly m 5 Sensibilisierung eingesetzt werden. Es konnte ebenfalls in dieser Arbeit bestätigt werden, dass die meisten Gly m 5 sensibilisierten Sojaallergiker moderate bis schwere allergische Reaktionen zeigten und Gly m 5 somit einen potenziellen Marker für die Schwere einer Sojaallergie darstellt. Zur Identifizierung von IgE-bindenden Bereichen des Gly m 5 und des homologen Erdnussallergens Ara h 1 wurde die hoch sensitive und spezifische CelluSpot Technik etabliert, welche im Vergleich zur häufig angewendeten SPOT Membran-Technik nicht nur Zeit und Serumvolumen spart, sondern auch die individuelle Testung der Seren unter ständiger Mitführung von Positiv-und Negativkontrollen ermöglichte. Diese Methode stellt damit eine geeignete Technik zur Untersuchung von IgE reaktiven linearen Bereichen der Gly m 5 Untereinheiten und des Ara h 1 dar. Die Mehrheit der Gly m 5 sensibilisierten Sojaallergiker besaß spezifisches IgE gegen sequenzielle synthetische Peptide der Gly m 5 Untereinheiten, wobei jedes Allergikerserum ein individuelles IgE Bindungsmuster zeigte. Zusammengefasst wurden fünf sequenzielle Regionen auf allen drei Gly m 5 Untereinheiten identifiziert, welche die größte IgE Bindungshäufigkeit aufwiesen. Alle fünf Bereiche waren zwischen 12-17 Aminosäuren groß und auf der Moleküloberfläche lokalisiert. Sie bildeten gemeinsam zwei zusammenhängende Bereiche in der Kernregion der Gly m 5 Moleküle und lassen vermuten, dass sie Teile von Konformationsepitopen darstellen. Zur Untersuchung einer möglicherweise vorhandenen serologischen Kreuzreaktivität zwischen den zwei Leguminosen Soja und Erdnuss, wurden sowohl Sojaallergiker mit Erdnussallergie als auch Erdnussallergiker ohne Sojaallergie auf Reaktivitäten gegen Peptide des Erdnussallergens Ara h 1 untersucht. Dabei wurden drei sequenzielle Bereiche identifiziert, die von der Mehrheit der Sojaallergiker, jedoch nur selten von den Erdnussallergikern erkannt wurden. Diese drei Bereiche wiesen eine Sequenzähnlichkeit zu den reaktivsten Bereichen der Gly m 5 Untereinheiten auf. Die Untersuchung von Allergikerseren auf Aminosäuresequenzebene könnte als diagnostische Methode zur Unterscheidung der klinischen Ausprägung einer Sojaallergie im Vergleich zur Erdnussallergie dienen und somit die Anzahl der risikobehafteten Nahrungsmittelprovokationen zur Bestätigung einer Sojaallergie senken. Die Identifizierung von B-Zell Epitopen ist eine wichtige Grundlage für die Herstellung von Hypoallergenen mit verringerter B-Zell Aktivität, bei gleichbleibender T-Zell-Aktivierung. Solche hypoallergenen Mutanten sind eine hoffnungsvolle Perspektive für eine Immuntherapie von Sojaallergikern, da sie womöglich das Risiko einer allergischen Reaktion während der Behandlung verringern können.
Die allergische Rhinitis hat sich in den letzten Jahrzehnten durch Anstieg der Prävalenz und Zunahme von Symptomhäufigkeit und -schwere zu einem global bedeutsamen und kostenintensiven Gesundheitsproblem entwickelt. Mit Hilfe der derzeit geltenden Behandlungsoptionen kann eine deutliche Verbesserung der Lebensqualität erzielt werden, eine langfristige Heilung ist bislang eher selten und eine Prophylaxe von Neuerkrankungen kaum möglich. Aufgrund des hohen Forschungsaufkommens zur AR existieren weltweit eine Vielzahl an Publikationen, welche z. B. Untersuchungen zur Entschlüsselung der Pathomechanismen dieser multifaktoriellen Erkrankung, Studien für effektive pharmakologische Therapien und Forschungen auf dem Gebiet der Immunmodulation beinhalten.
In dieser Arbeit wurde eine quantitative Analyse dieser wissenschaftlichen Arbeiten unter Zuhilfenahme von szientometrische Verfahren durchgeführt, wobei auf die Daten der Datenbank des "ISI Web of Science" zurückgegriffen wurde. Nach Festlegung eines komplexen Suchbegriffes, der alle relevanten Arbeiten zum Thema der AR einschließt, wurden die 11.951 im ISI WoS veröffentlichten Publikationen (Zeitraum von 1900-2007) im Rahmen von unterschiedlichsten Fragestellungen untersucht und die Ergebnisse kritisch begutachtet. Für die Darstellung der Fakten mit der höchsten Relevanz wurden verschiedene Diagrammarten zur grafischen Präsentation gewählt. Globale Sachverhalte wurden überwiegend anhand von Diffusionskartenanamorphoten veranschaulicht.
Seit Beginn der 90er-Jahre ist ein sprunghafter Anstieg von wissenschaftlichen Veröffentlichungen zum Thema der AR zu konstatieren. Die höchste Zahl an Veröffentlichungen konnte für das letzte Jahr der Analyse mit 923 Artikeln festgestellt werden. Anhand der seit 1991 stark zunehmenden Anzahl an Veröffentlichungen und den bereits seit Mitte der 80er-Jahre anhaltend hohen Zitationszahlen kann spätestens mit Beginn der 90er-Jahre ein großes wissenschaftliches Interesse an der AR insbesondere in den Industrienationen abgelesen werden, welches scheinbar bis zum letzten Analysejahr fortbestand. Fast 50% aller veröffentlichten Artikel stammen aus nur 4 Industrienationen. Dazu zählen die USA, das UK, Deutschland und Japan, wovon allein die USA fast ein Viertel der gesamten Publikationen auf sich vereint.
Mehr als 90% der analysierten wissenschaftlichen Artikel aus über 110 Herkunftsländern wurden in englischer Sprache veröffentlicht. Etwas über 4% aller Artikel wurden in deutscher und ca. 2% in französischer Sprache publiziert.
Bei den Zeitschriftenanalysen hatten vor allem auf Allergie und Immunologie spezialisierte Zeitschriften die größte Anzahl an Veröffentlichungen zu verzeichnen, wobei die Journale "Journal of Allergy and Clinical Immunology" und "Allergy" die meisten Artikel (jeweils über 1.000 Publikationen) veröffentlicht haben. Die Fachzeitschrift "Journal of Allergy and Clinical Immunology" wurde mit Abstand am häufigsten zitiert (35.572 Zitate). Die höchsten Zitationsraten wurden für die weltweit bekannten und renommierten Fachjournale "The New England Journal of Medicine" und "The Lancet" ermittelt.
Nach Ländern gewichtet, wurden vor allem Publikationen aus den USA, dem UK und Deutschland äußerst häufig zitiert. Auch die ermittelten H-Indices dieser 3 Länder waren die höchsten, was bei den Untersuchungen jedoch in direktem Zusammenhang mit der großen Zahl an von diesen Ländern hervorgebrachten wissenschaftlichen Artikel gesehen werden muss. Bei Betrachtung der Zitationsraten liegen beispielsweise andere Länder, wie z. B. Neuseeland, Indien, Norwegen und Finnland, an der Spitze, obwohl dort deutlich weniger Artikel veröffentlicht wurden.
Im Rahmen der Analysen dieser Arbeit konnte aufgezeigt werden, dass die Zahl der Kooperationen zwischen Autoren und Ländern in den letzten Jahren stark zugenommen hat. Als Gründe können z. B. die verbesserten internationalen Beziehungen, die Globalisierung, sowie die sich ständig weiterentwickelnden technischen Kommunikationsmöglichkeiten hervorgehoben werden. Sehr intensive wissenschaftliche Beziehungen konnten zwischen den USA und dem UK, sowie den USA und Kanada, aber auch innerhalb Europas, z. B. zwischen dem UK und Schweden, festgestellt werden.
Die Analysen dieser Arbeit geben für die Datenbank "ISI WoS" in dem untersuchten Zeitraum ein v. a. in den Industrienationen bestehendes, aber tendenziell weltweit zunehmendes Forschungsinteresse zum Thema der AR wieder, wobei v. a. in den letzten Jahren ein Anstieg von nationalen und internationalen Kooperationsbeziehungen zu beobachten war. In den nächsten Jahrzehnten wird sich zeigen inwieweit sich das Publikationsverhalten entwickeln wird und ob beständige Forschung auf diesem Gebiet zu einer deutlichen Reduktion der hohen Prävalenz beitragen kann. Für die Betroffenen bleibt zu hoffen, dass in Zukunft weitere wichtige Erkenntnisse über diese Erkrankung gewonnen und daraus optimierte Behandlungsmöglichkeiten resultieren werden.
Während der vergangenen Jahrzehnte stieg die durchschnittliche Lebenserwartung der Bevölkerung in den westlichen Industrieländern durch die Verbesserung der allgemeinen Lebensbedingungen, insbesondere durch die Fortschritte in der Hygiene und der Medizin sowie stabile politische Verhältnisse, kontinuierlich an. Aufgrund dieser demographischen Entwicklung zu einer zunehmend älter werdenden Gesellschaft nimmt auch das Auftreten von progressiven, altersabhängigen Erkrankungen, wie zum Beispiel der Parkinson‟schen Krankheit zu. Dieser Trend stellt sowohl für die betroffenen Patienten und ihre Angehörigen als auch für die Gesundheits- und Sozialsysteme eine gewaltige und kostenintensive Herausforderung dar. Um wirkungsvolle Therapien entwickeln zu können, die früh im Krankheitsverlauf eingreifen und die Manifestation der Erkrankung verhindern oder verzögern beziehungs-weise die darauf abzielen, die Symptome der Erkrankung nach deren Manifestation zu lindern, ist es unerlässlich, die diesen progressiven, altersabhängigen Krankheiten zugrundeliegenden Mechanismen zu erforschen und entsprechende krankheitsspezifische, molekulare Biomarker zu identifizieren. Darüber hinaus stellt die Identifizierung solcher Biomarker einen wichtigen Ansatzpunkt für die klinische Diagnostik und Therapeutik sowie für die Entwicklung neuer therapeutischer Behandlungsstrategien dar. Das subzellulär vorwiegend präsynaptisch lokalisierte Protein alpha-Synuklein blieb in den Jahren nach seiner Erstbeschreibung 1988 durch Luc Maroteaux von der biomedizinischen Forschung weitgehend unbeachtet. Erst die Assoziationen von unterschiedlichen Mutationen des alpha-Synuklein-Gens mit seltenen, autosomal-dominant vererbten, monogenetischen Varianten der Parkinson‟schen Krankheit (PARK1 und PARK4) seit 1997 sowie die Identifizierung des Proteins im Jahre 1998 als Hauptbestandteil von intrazellulären Proteinaggregaten (Lewy-Körpern und Lewy-Neuriten), deren Vorkommen charakteristisch für progressive, neurodegenerative und unter dem Sammelbegriff „Synukleinopathien“ klassifizierte Erkrankungen (wie beispielsweise auch die häufigen, sporadischen Formen der Parkinson‟schen Krankheit) ist, ließen das alpha-Synuklein in den Fokus der biomedizinischen Forschung rücken. Trotz intensiver Bemühungen der weltweiten Forschungsgemeinschaft konnten seitdem in den vergangenen 13 Jahren die physiologischen Funktionen von alpha-Synuklein und die den unterschiedlichen Synukleinopathien zugrundeliegenden, molekularen pathophysiologischen Mechanismen nicht genau identifiziert werden. Stattdessen führte die intensive Forschung an alpha-Synuklein mit den unterschiedlichsten experimentellen Herangehensweisen und Modellsystemen zu verschiedenen und teilweise kontroversen Hypothesen und Theorien über dessen physiologische Funktion und pathophysiologische Wirkungsweisen. Die in dieser Dissertationschrift dargestellten experimentellen Untersuchungen wurden an zwei speziellen transgenen Mausmodellen durchgeführt, die entweder einen vollständigen Mangel (= „knockout“; KO) des alpha-Synuklein-Proteins oder eine transgene Überexpression von humanem, A53T-mutierten alpha-Synuklein aufwiesen. Das Hauptziel der dargestellten Studien war es, neue Erkenntnisse hinsichtlich der physiologischen Funktionen des alpha-Synuklein-Proteins, beziehungsweise der krankheits-relevanten, pathophysiologischen Mechanismen der den familiären PARK1- und PARK4-Varianten der Parkinson‟schen Krankheit zugrundeliegenden alpha-Synuklein-Mutationen (Substitution von Alanin durch Threonin an Position 53 der Aminosäuresequenz (A53T; PARK1) sowie Überexpression (Genduplikation/-triplikation; PARK4)) zu gewinnen...
Zur Untersuchung der Zusammensetzung und Diversität von Bambusameisengemeinschaften (Hymenoptera, Formicidae) sowie ausgewählten Nischenparametern der beteiligten Ameisenarten, wurden auf dem Gelände des Gombak Field Studies Centre (University Malaya, Selangor, Westmalaysia) fünf Haine von Riesenbambusarten (Gigantochloa scortechinii, G. thoii, Bambusoidea) gefällt und abgesammelt. Es wurden Hinweise auf deterministische oder stochastische Strukturierungsmechanismen der Ameisengemeinschaften gesucht. Hierzu wurden verschiedene Fragestellungen anhand der Multiplen Regression untersucht. Zusätzlich wurden Stichproben von Bambusschößlingen und jungen Bambushalmen hinsichtlich der Nutzungsweise und Besiedlung durch Ameisen studiert. In der vorliegenden Arbeit werden die Ergebnisse der Auswertung auf Hainebene, d. h. der Bambusameisenzönosen als Ganzes betrachtet, vorgestellt. 1. In fünf Bambushainen wurden bisher 66 nistende Ameisenarten aus 21 Gattungen und 6 Unterfamilien identifiziert. Die drei gattungs
In der vorliegenden Studie wurde die Erfolgsrate der intrauterinen Insemination im Hinblick auf die andrologischen Parameter analysiert. Der praktische Teil dieser Arbeit bestand darin, einen Fragebogen mit allen interessierenden Merkmalen zu erstellen. Anschließend wurden die Patientendaten aller im Jahre 2003 mittels intrauteriner Insemination in der Frauenklinik der Johann Wolfgang Goethe-Universität Frankfurt am Main behandelter Paare, anhand des erstellten Fragebogens erfasst. Die zusammengetragenen Daten wurden in einer Excel-Datentabelle ausgewertet und anschließend anhand des Chi-Quadrat-Vierfeldertests auf ihre statistische Signifikanz hin überprüft. Das Nichtschwangerenkollektiv, welches sich aus 197 Paaren zusammensetzte, wurde mit dem Schwangerenkollektiv, bestehend aus 35 Paaren, verglichen. Insgesamt wurden 475 Behandlungszyklen durchgeführt. Es kam insgesamt zu 36 Schwangerschaften (2 Schwangerschaften davon bei einem Paar nach Abort in der ersten Schwangerschaft), woraus eine Schwangerschaftsrate von 15,5 % resultiert und eine Wahrscheinlichkeit einer Schwangerschaft pro Behandlungszyklus 7,6 % errechnet wurde. Als die wichtigsten prognostischen Faktoren haben sich folgende Parameter herausgestellt. Erstens die Anzahl an schnell progressiven Spermien im Ejakulat. Es sollten mindestens 1 Million sein, sind weniger als 1 Millionen schnell progressiver Spermien vorhanden, kann mittels intrauteriner Insemination zwar eine Schwangerschaft erzielt werden, jedoch ist die Erfolgsaussicht deutlich geringer. Zweitens der Grad der Teratozoospermie. Eine moderate Teratozoospermie zeigte ein gutes Outcome bei der intrauterinen Insemination, wohingegen bei Paaren mit einer schweren Teratozoospermie die intrauterine Insemination kritisch betrachtet werden muss. In dieser Studie lag die Grenze bei 6 % Normalformen. Paaren mit mindestens 6 % Normalformen im Ejakulat kann zu einer intrauterinen Insemination geraten werden. Somit lässt sich zusammenfassend aus dieser Studie schlussfolgern, dass die intrauterine Insemination als eine im Vergleich zur IVF und ICSI relativ gering invasive und kostengünstige Methode bei moderater andrologischer Sterilität immer noch als Behandlung der ersten Wahl in Betracht kommt. Bei einer schweren männlichen Sterilität sollte die Indikation strenger gestellt werden und Alternativmethoden, wie z. B. die ICSI, als primäre Behandlungsoption zum Einsatz kommen.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Helicobacter pylori (H. pylori) ist ein gram-negatives Bakterium, das die menschliche Magenmukosa kolonisieren kann. Ca. 50 % der Weltbevölkerung sind mit diesem Erreger infiziert, wobei er ohne medizinische Behandlung über Jahrzehnte in seinem Wirt persistieren kann. Das Bakterium gilt als eine der häufigsten Ursachen bei der Entwicklung von schweren gastrointestinalen Erkrankungen wie chronischer Gastritis und Gastral- oder Duodenalulkus. Darüber hinaus kann eine Infektion aber auch zu einem gastralen Adenokarzinom oder dem MALT- („mucosa-associated lymphoid tissue“) Lymphom führen. Bestimmte H. pylori-Stämme können über ein Typ IV Sekretionssystem (T4SS) das bakterielle Protein CagA („cytotoxin-assoziiertes Gen A“) in die Wirtszelle injizieren und dadurch Signaltransduktionswege stören, die die Morphologie und Mobilität der infizierten Wirtszelle drastisch verändern. In diesem Zusammenhang wurde die putative Phosphorylierung der Proteine VASP („Vasodilator-stimuliertes Phosphoprotein“) und α-Actinin-4 untersucht, welche beide regulatorische Funktionen im Zytoskelett der Wirtszelle ausüben. Im Rahmen dieser Doktorarbeit sollte der Einfluss von H. pylori auf diese Proteine analysiert werden, sowie die daraus resultierenden zellulären Auswirkungen. Es konnte verifiziert werden, dass H. pylori die Phosphorylierung der drei bekannten Phosphorylierungsstellen von VASP, bzw. eine Tyrosin-Phosphorylierung von α-Actinin-4 (ACTN4) induziert. Weiterhin zeigte sich, dass beide Proteine nach einer Infektion mit dem Bakterium in fokalen Kontaktstellen der Zellen lokalisieren. Zusätzlich lies sich zeigen, dass VASP und α-Actinin-4 eine entscheidende Rolle bei der durch H. pylori-induzierten Zellelongation spielen, da eine Herunterregulation der Genexpression von beiden Proteinen über siRNA zu einer Inhibition der morphologischen Veränderungen führte. Die genaueren Studien über VASP zeigten, dass hauptsächlich die Phosphorylierungsstelle VASPSer239 für die H. pylori-induzierte Zellelongation verantwortlich ist und die Phosphorylierung durch die Proteinkinase G (PKG) vermittelt wird. Für α-Actinin-4 konnte in dieser Arbeit des Weiteren gezeigt werden, dass die Kinase c-Abl eine Tyrosin-Phosphorylierung vermitteln kann, wobei die genaue Phosphorylierungsstelle im Protein noch ermittelt werden muss. Durch den Einsatz von H. pylori-Mutanten lies sich darüber hinaus noch zeigen, dass die Phosphorylierung von VASPSer239 und VASPThr278 durch das bakterielle Protein CagA deutlich verstärkt wird. Für die Tyrosin-Phosphorylierung von α-Actinin-4 war CagA sogar ausschlaggebend. Diese neu entdeckten zellulären Zielproteine bei einer H. pylori-Infektion ermöglichen weitere Einblicke in die Deregulation des eukaryotischen Zytoskeletts und möglichen Mechanismen bei der Krebsentstehung.
Analyse der Genauigkeit des neurochirurgischen Operationsroboters Robotic Surgery Assistant (ROSA)
(2020)
In der vorliegenden Arbeit sollte untersucht werden, ob der Roboter ROSA bei der Durchführung von intrakraniellen Biopsien oder Elektrodenimplantationen eine Alternative zur klassischen, rahmenbasierten Stereotaxie darstellt. Dazu sollte die mechanische und die Anwendungsgenauigkeit des Systems ermittelt werden. Zur Bestimmung der mechanischen Genauigkeit wurde eine experimentelle Phantomstudie durchgeführt. Hier wurden durch den Roboter wiederholt zehn Trajektorien an einem Stereotaxiephantom angefahren. Der Abstand der robotischen Nadel zum Zielpunkt im Phantom wurde anhand von Röntgenbildern bestimmt. Die Wiederholung des Versuchsaufbaus unter Variation der Planungsbildgebung erlaubte den Vergleich verschiedener Schichtdicken sowie zwischen low-dose und normal-dose Verfahren. Die Anwendungsgenauigkeit sollte durch die Analyse operativer Ergebnisse der ROSA erfasst werden. Dazu wurde anhand von postoperativen Bildern die Genauigkeit anhand des Abstands zwischen geplanter und tatsächlicher Lage von Stereoelektroenzephalographie-Elektroden ermittelt. Es wurden verschiedene Referenzierungstechniken, die der Orientierung des Roboters dienen und bei denen eine präoperative Planungsbildgebung (CT oder MRT) mit einem Abbild des OP-Gebietes (durch Oberflächenerkennung oder durch einen Stereotaxierahmen) referenziert wird, verglichen, nämlich CT-Laser; CT-Leksell-Rahmen und MRT-Laser. Die Ergebnisse wurden einer statistischen Analyse unterzogen. Dabei zeigte sich, dass der ROSA-Roboter eine sehr hohe mechanische Genauigkeit im Submillimeterbereich erreicht. Genauigkeitseinbußen bei einer größeren Schichtdicke der zur Planung verwendeten Computertomographie sind messbar, aber gering. Ein signifikanter Einfluss bei der Verwendung eines low-dose-Protokolls konnte nicht festgestellt werden. Dennoch zeigte sich, dass der entscheidende Teil der Ungenauigkeiten in der klinischen Anwendung entsteht und dabei insbesondere durch die Referenzierungstechnik bestimmt wird. Referenzierungen, die auf einer Computertomographie basierten, erwiesen sich als zufriedenstellend genau und als konkurrenzfähig zur konventionellen Methode. Der Unterschied zwischen dem rahmenbasierten und dem auf Oberflächenerkennung basierenden Verfahren war dabei so gering, dass letzteres sich angesichts seiner Vorteile in der Anwendung als besonders günstiges Verfahren hervortut. Im Gegensatz dazu stand das MRT-Laser-Verfahren, welches bei relativ hohen Abweichungen nur eingeschränkt anwendbar scheint und sich damit eher für Anwendungsbereiche mit geringeren Genauigkeitsanforderungen eignet, wie bspw. Biopsien. Weiterhin kann der Verlauf der Trajektorie an den höheren Sicherheitsabstand angepassten werden. Bei der Einordnung der ermittelten Genauigkeiten ist zu beachten, dass es viele weitere, von der Referenzierungs- und Bildgebungsmethode unabhängige Einflussfaktoren gibt. In dieser Arbeit war der Einfluss der erfassten externen Paramter zwar limitiert, bei anderen Autoren zeigte sich jedoch ein signifikanter Effekt. Dennoch deckt sich die Gesamtgenauigkeit mit den Ergebnissen anderer Arbeiten.
In Zusammenschau der Ergebnisse weist die vom ROSA-Assistenzsystem assistierte Stereotaxie eine verbesserte Prozessqualität auf, unter anderem durch die erhebliche Zeitersparnis, ggf. der Wegfall des Transports des narkotisierten Patienten, die Adaptionsmöglichkeiten der Prozessteilschritte an den Patienten, sowie eine hohe Nutzerfreundlichkeit. Entscheidend ist jedoch, dass es sich um ein sehr sicheres Verfahren handelt: Durch die hohe Genauigkeit wird das Operationsrisiko minimiert, gleichzeitig erlauben Laser-gestützte Registrierungsverfahren eine Reduktion der Strahlenexposition. Zur Konsolidierung der in dieser Arbeit gewonnenen Erkenntnisse sind weitere klinische Daten notwendig.
LINE-1-Retrotransposons sind für die Entstehung von über 35 % des menschlichen Genoms verantwortlich. Während ihre Aktivität entscheidend zur Evolution von Säugetieren allgemein und des Menschen im Speziellen beigetragen hat, kann die L1-Expression und die L1-vermittelte Retrotransposition schädigende Auswirkungen für die Wirtszelle haben (Goodier und Kazazian, 2008). Die Liste der dokumentierten, durch L1-Aktivität hervorgerufenen Erkrankungen umfasst gegenwärtig ca. 65 Fälle von genetischen bzw. Tumorerkrankungen und wird immer länger. Um die Anzahl schädigender L1-Retrotranspositionsereignisse zu minimieren, hat der menschliche Organismus Strategien entwickelt, um die L1-Retrotransposition zu kontrollieren. Eine dieser Strategien ist die Inhibition der L1-Aktivität durch Mitglieder der APOBEC-Proteinfamilie, wobei deren jeweilige Mechanismen der L1-Inhibition gegenwärtig noch nicht aufgeklärt sind. Es war daher das Ziel dieser Arbeit, Einblicke in die Mechanismen der Hemmung der L1-Retrotransposition durch Mitglieder der Familie der humanen APOBEC3-Proteine zu bekommen, wobei eine Fokussierung auf den durch APOBEC3C vermittelten Mechanismus vorgenommen wurde. Aufbauend auf kürzlich publizierte Daten zur Hemmung der L1-Retrotransposition durch die APOBEC3-Proteine A3A, A3B, A3C und A3F (Bogerd et al., 2006; Chen et al., 2006; Muckenfuss et al., 2006) wurde eine Arbeitshypothese entwickelt, welche die L1-Inhibition durch APOBEC3-vermittelte Deaminierung von Cytosinen der L1-cDNA unter der Beteiligung von Faktoren des „Base Excision Repair“-Weges erklärt. Diese Arbeitshypothese steht im Einklang mit der Abwesenheit nachweisbarer G-zu-A-Hypermutationen von L1-Kopien wie sie für die APOBEC3-spezifische Deaminaseaktivität charakteristisch sind, sowie mit der Existenz 5’-verkürzter genomischer L1-Kopien. Die Ergebnisse aus in silico-Analysen der 5’-Enden von 38 L1-Neuinsertionen aus Zellkulturexperimenten, die in Anwesenheit von endogen exprimiertem A3B, A3C und A3H retrotransponiert waren, sowie von 885 genomischen, endogenen L1-Kopien waren in Übereinstimmung mit unserer Arbeitshypothese, da in beiden Fällen Guanin als erste fehlende L1-Nukleobase am L1-5’-Ende statistisch signifikant überrepräsentiert vorliegt. Während für die Inhibition von L1 durch A3A dessen Deaminaseaktivität notwendig ist, wurde gezeigt, dass A3C die L1-Retrotransposition über einen deaminaseunabhängigen Mechanismus hemmt. Die L1-Inhibition durch A3C erforderte sowohl eine funktionelle Dimerisierungsdomäne als auch eine intakte RNA-Bindedomäne. Die Identifizierung von A3C und L1-ORF1p in derselben Saccharosegradientenfraktion sowie die Kolokalisation beider Proteine im Zytoplasma von HeLa- bzw. 143B-Zellen sprechen für eine Interaktion von A3C mit L1-ORF1p bzw. L1-RNPs. Da eine direkte Interaktion von A3C und L1-ORF1p mittels Immunopräzipitation nicht nachgewiesen werden konnte, spricht dies dafür, dass die Interaktion nicht auf einen direkten Kontakt zwischen A3C und L1-ORF1p beruht. Eine direkte Interaktion zwischen A3A und L1-ORF1p konnte ebenfalls nicht nachgewiesen werden. Vielmehr spricht die Abhängigkeit der A3C-vermittelten Hemmung von der intakten RNA-Bindedomäne, experimentelle Daten, welche eine Interaktion mit L1-RNPs vorschlagen, sowie die Kolokalisation von A3C und L1-ORF1p im Zytoplasma für eine Sequestrierung der L1-RNPs, die Behinderung des nukleären Imports der L1-RNPs oder aber eine Blockierung der TPRT-Initiation als mögliche Mechanismen der A3C-vermittelten Hemmung der L1-Retrotransposition.
Im Rahmen dieser Arbeit sollte der tonische BZR-Signalweg im Burkitt Lymphom näher untersucht werden. Ziel war die Identifizierung von Zielstrukturen, die für die Zellen essentiell für die Aufrechterhaltung des tonischen Signalwegs sind und gleichzeitig die Viabilität der Zellen fördern. Durch die Identifizierung noch unbekannter Zielstrukturen wäre man in der Lage, neue Behandlungsstrategien zu entwickeln oder bereits bestehende zu optimieren. Des Weiteren sollte die Signaltransduktion in der B-ALL, die über einen Vorläufer des BZRs, dem prä-BZR vermittelt wird, hinsichtlich eines tonischen Überlebenssignals untersucht werden.
Durch massenspektrometrische Analysen der tonischen BZR-Signaltransduktion im Burkitt Lymphom, die für die Viabilität der Zellen essentiell ist und die Ergebnisse eines Inhibitorscreens konnte HSP90 als potenzielle neue Zielstruktur im Burkitt Lymphom identifiziert werden.
So konnte gezeigt werden, dass Burkitt-Lymphom-Zellen nach Inhibition der Chaperonfunktion von HSP90 durch zwei auf dem Markt bereits verfügbare Inhibitoren einen Zellzyklusarrest erfahren, der letztlich zur Apoptose der Zellen führt. Dieser Effekt wurde auf einen Verlust des (tonischen) BZR-Signals zurückgeführt, der überwiegend durch den aktiven lysosomalen Abbau von SYK nach HSP90-Inhibition zustande kommt. Demnach führte die Überexpression einer HSP90-resistenten Variante von SYK (TEL-SYK) zu einer Aufhebung der apoptotischen Effekte nach HSP90-Inhibition. Zudem wurde SYK als Interaktionspartner von HSP90 (HSP90-Klientprotein) im Burkitt Lymphom und die für die Interaktion essentielle Phosphorylierungsstelle (pY197 in HSP90α bzw. pY192 in HSP90β) identifiziert bzw. validiert.
Das therapeutische Potenzial der HSP90-Inhibitoren im Burkitt Lymphom offenbarte sich ferner durch den Vergleich der Wirkungseffektivität in gesunden B-Zellen mit der in Tumorzellen. So zeigten HSP90-Inhibitoren eine erhöhte Affinität zu Tumorzellen. Bei verwendeten Konzentrationen der Inhibitoren, die bereits eine apoptotische Wirkung in Tumorzellen hervorriefen, waren gesunde B-Zellen resistent.
In der B-ALL konnte durch den Knockdown von CD79a und der Inhibition von SYK eine tonische Antigenrezeptor-Signalleitung identifiziert werden, die wie im Burkitt Lymphom über den PI3K/AKT-Signalweg vermittelt wird. Durch die Kombination der im Rahmen dieser Arbeit gewonnen Erkenntnisse und weiterführende Analysen (wie zum Beispiel durch Inhibitor- oder CRISPR/Cas-Screens) kann so eine Identifizierung von potenziellen Zielstrukturen mit therapeutischem Nutzen in der B-ALL erfolgen.
Durch die Behandlung HIV-positiver Patienten mit einer Kombinationstherapie verschiedener antiviraler Substanzen (HAART = hochaktive antiretrovirale Therapie) kann die Virusreplikation über einen längeren Zeitraum unterdrückt werden. Allerdings hat diese Therapie Limitationen. Die Medikamente verursachen hohe Therapiekosten, haben zum Teil starke Nebenwirkungen und es entstehen mit der Zeit resistente Viren. Eine Alternative besteht in der somatischen Gentherapie der HIV-Infektion. Bei diesen Ansätzen werden Zellen der Patienten genetisch modifiziert, so dass sie ein antivirales Genprodukt exprimieren. In der vorliegenden Arbeit wurde ein membrangebundenes, antivirales C46 Peptid (maC46) sowohl in vitro in Zelllinien und primären humanen T-Zellen als auch in vivo in zwei humanisierten Mausmodellen getestet. Das C46 Peptid entstammt der C-terminalen "heptad repeat" Sequenz des HIV Hüllproteins gp41. C-Peptide wie C46 oder auch T20, welches bereits für die HAART Therapie zugelassen ist, binden während der Fusion des Virus mit der Zielzelle an gp41 und inhibieren so die Fusion. Werden T-Zelllinien oder primäre humane T-Zellen mit einem gammaretroviralen Vektor, der maC46 codiert, transduziert, können sie sehr effizient vor einer Infektion mit HIV geschützt werden [30]. Dieser Vektor wurde bereits in einer klinischen Studie mit T-Zellen von 10 HIV-positiven Patienten getestet [142]. Dabei konnte allerdings kein antiviraler Effekt der Gentherapie beobachtet werden. Hier wurde nun ein lentiviraler Vektor für maC46 (LV-maC46-GFP) verwendet. Lentivirale Vektoren transduzieren im Gegensatz zu gammaretroviralen auch ruhende Zellen, was ein kürzeres ex vivo Aktivierungs- und Transduktionsprotokoll ermöglicht. Außerdem ist für lentivirale Vektoren das Risiko der Transformation der Zelle niedriger als für gammaretrovirale. Für eine mögliche klinische Anwendung sollte es daher tolerierbar sein, für lentivirale Vektoren eine höhere MOI zu verwenden als für gammaretrovirale. Eine höhere Transduktionseffizienz sollte auf der anderen Seite auch eine effektive und langanhaltende Transgenexpression ermöglichen. Zunächst wurde gezeigt, dass sowohl die T-Zelllinie PM-1 als auch primäre humane T-Zellen nach Transduktion mit LV-maC46-GFP vor einer Infektion mit HIV geschützt waren und während der Infektion einer gemischten Kultur einen Selektionsvorteil gegenüber nicht-transduzierten Zellen hatten. Dabei konnte auch durch konfokale Mikroskopie gezeigt werden, dass das Virus die maC46-exprimierenden Zellen nicht injizieren konnte, sondern lediglich auf der Zelloberfläche gebunden wurde. Im Weiteren wurden zwei humanisierte Mausmodelle etabliert, um LV-maC46-GFP in vivo zu testen. Im humanen Immunsystem Mausmodell (HIS-Mausmodell) wurden immundefiziente Mäuse mit humanen Blutstammzellen repopuliert. In den Tieren kam es zu einer de novo Bildung von humanen, reifen T-Lymphozyten durch Thymopoese. Dabei wurden im Blut der Tiere humane, maC46- exprimierende CD4+ T-Zellen detektiert. Nach Infektion der Tiere mit HIV wurden diese T-Zellen depletiert. Es kam allerdings nicht zu einer Anreicherung oder einem selektiven Überleben der genmodifizierten T-Zellen. Eine Erklärung dafür könnte eine gestörte T-Zellhomeostase in den Tieren sein. Das zweite humanisierte Mausmodell (T-Zellmausmodell) verwendete immundefiziente Mäuse, die mit transduzierten humanen T-Zellen repopuliert wurden. Die Infektion mit HIV erfolgte entweder in vitro vor Transplantation der Zellen oder in vivo nach Repopulierung der Tiere. In beiden Fällen konnte ein selektives Überleben maC46-exprimierender CD4+ T-Zellen nach HIV-Infektion beobachtet werden. Im letzten Teil der vorliegenden Arbeit wurde die Weiterentwicklung von maC46, eine sekretierte Variante des C46-Peptids (iSAVE), im T-Zellmausmodell getestet. Ein sekretierter Fusionsinhibitor stellt insofern eine Weiterentwicklung des membrangebundenen dar, als nicht nur die genmodifizierten Zellen, sondern zusätzlich auch nicht-modifizierte Nachbarzellen vor einer Infektion mit HIV geschützt werden könnten. Dadurch erhöht sich auch das Spektrum an möglichen Produzentenzellen für den Fusionsinhibitor. In den hier beschriebenen Experimenten wurden humane T-Zellen entweder mit einem gammaretroviralen (RV-iSAVE) oder einem lentiviralen Vektor (LV-iSAVE) transduziert und die Experssion das iSAVE-Peptids wurde im Serum der Tiere gemessen. In beiden Ansätzen konnte iSAVE Peptid im Serum der Tiere detektiert werden. In weiteren Experimenten sollte nun untersucht werden, ob dieses in vivo sekretierte iSAVE Peptid antiviral aktiv ist und die humanisierten Mäuse vor einer Infektion mit HIV schützen kann.
Die Bindung von regulatorischen Proteinen an die Zelloberfläche ist eine wirkungsvolle Strategie, die sich humanpathogene Bakterien, insbesondere B. burgdorferi, dem Erreger der Lyme-Borreliose, zu eigen gemacht haben, um der bakteriolytischen Wirkung von Komplement zu entgehen. Die Grundlage der Serumresistenz bei B. burgdorferi besteht vornehmlich in der Interaktion der Komplementregulatoren Faktor H und FHL-1 mit fünf verschiedenen Borrelienproteinen, die als Complement Regulator-Acquiring Surface Proteins bezeichnet werden. Bei der Genospezies B. burgdorferi s.s. nimmt das BbCRASP-2 Protein aufgrund seines spezifischen Bindungsverhaltens gegenüber Faktor H und FHL-1 eine Sonderstellung ein. In früheren Untersuchungen konnten vier potenzielle Bindungsregionen von Faktor H und FHL-1 im BbCRASP-2 Protein lokalisiert werden. Das Ziel der vorliegenden Arbeit bestand in der detaillierten Charakterisierung der an der Bindung mit Faktor H und FHL-1 beteiligten Aminosäuren von BbCRASP-2 innerhalb der putativen Bindungsregionen 2, 3 und 4 sowie in einer Region, die eine coiled-coil Struktur aufweist. Dazu wurden selektiv Aminosäuren mittels gerichteter Mutagenese durch die neutrale Aminosäure Alanin ausgetauscht und das Bindungsverhalten der mutierten BbCRASP-2 Proteine untersucht. Mittels Ligandenaffinitätsblot-Analyse und ELISA konnten insgesamt 17 Aminosäuren – geladen, neutral polar, neutral unpolar - identifiziert werden, die nach Mutagenese eine erniedrigte Bindungskapazität oder keine Bindung gegenüber Faktor H und FHL-1 in mindestens einem der beiden Testmethoden aufwiesen. Von diesen Mutanten zeigen 6 Proteine (BbCRASP-2S72A, BbCRASP-2D84A, BbCRASP-2F91A, BbCRASP-2R139A, BbCRASP-2Y207A, BbCRASP-2Y211A) in beiden Testsystemen ein deutlich verändertes Bindungsverhalten. 12 weitere BbCRASP-2 Mutanten fielen im ELISA durch ihre reduzierte Bindungskapazität auf, verhielten sich jedoch im Ligandenaffinitätsblot im Vergleich zu BbCRASP-2 in ihrer Bindungseigenschaft unverändert. Die für die Faktor H/FHL-1 Bindung relevanten Aminosäuren verteilten sich in allen der drei untersuchten Bindungsregionen, wobei Austausche in der C-terminal gelegenen Region 4 den größten Effekt auf die Bindung zeigten. Dies deutet darauf hin, dass dem C-Terminus eine essentielle Rolle bei der Interaktion zugeordnet werden kann. In Bezug auf die Ladungseigenschaften der identifizierten Aminosäuren ergab sich ebenfalls ein sehr heterogenes Bild. Da sowohl geladene als auch polare und unpolare Aminosäuren an der Bindung von Faktor H und FHL-1 partizipieren, ist davon auszugehen, dass gleichermaßen elektrostatische und hydrophobe Wechselwirkungen an der Bindung beteiligt sind. Zusätzlich konnte in der putativen coiled-coil Region eine Aminosäure (Phe91) identifiziert werden, die direkt oder indirekt an der Bindung von BbCRASP-2 und Faktor H/FHL-1 beteiligt ist. Für die Hypothese einer an der Interaktion beteiligten coiled-coil Struktur spricht, dass Aminosäuresubstitutionen an drei weiteren Positionen (Leu-94, Ile-98 und Tyr-101) eine reduzierte Bindung bewirkten. Die räumlich weit auseinander liegenden Positionen der als bindungsrelevant identifizierten Aminosäuren deuten darauf hin, dass sich der Bindungsmechanismus von BbCRASP-2 an Faktor H und FHL-1 komplexer darstellt, als zunächst vermutet. Es ist ferner zu erwarten, dass noch weitere Aminosäuren außerhalb der putativen Bindungsregionen die Interaktion von BbCRASP-2 mit den Regulatorproteine beeinflussen, da in dieser Studie gezeigt werden konnte, dass die Substitution von Phenylalanin an Position 91 einen deutlichen Einfluss auf die Bindung von Faktor H und FHL-1 aufwies, obwohl sie außerhalb der ermittelten Bindungsregionen lokalisiert ist. Mit großer Wahrscheinlichkeit stellt die genaue Topologie des BbCRASP-2 Proteins ebenfalls einen entscheidenden Faktor für die Bindung dar. Deshalb sollte mit Kenntnis der dreidimensionalen Struktur des BbCRASP-2 Moleküls eine genauere Beschreibung des molekularen Bindungsmechanismus möglich sein. Die vorliegenden Untersuchungen zum molekularen Mechanismus der Serumresistenz von B. burgdorferi tragen wesentlich zum Verständnis der komplexen Interaktion zwischen BbCRASP-2 mit Faktor H und FHL-1, den beiden Komplementregulatoren des alternativen Weges bei. Diese Erkenntnisse könnten langfristig gesehen für die Entwicklung eines Impfstoffs genutzt werden.
Elefanten sind die größten landlebenden Säugetiere und werden schon seit Jahrhunderten in Menschenobhut gehalten. In der heutigen Zeit liegt der Schwerpunkt der Elefantenhaltung auf dem Unterbringen dieser anspruchsvollen Tiere in verhaltensgerechten Bedingungen, die auch das Wohlbefinden der Tiere berücksichtigen. Es mangelt jedoch an langfristigen Studien, die Veränderungen im Verhalten und im Wohlbefinden von Elefanten in Menschenobhut erforschen. Vor allem das nächtliche Verhalten fand bisher wenig Beachtung, obwohl Studien im natürlichen Lebensraum als auch in Menschenobhut zeigen, dass Elefanten den größten Teil der Nacht aktiv sind. Die vorliegende Studie konzentriert sich daher auf eine langfristige Überwachung des nächtlichen Verhaltens von Afrikanischen Elefanten und stellt, unter Anwendung chronoethologischer Methoden, die haltungsbedingten Einflüsse auf das Verhaltensmuster dar. Es wurden insgesamt 16 Afrikanische Elefanten (Loxodonta africana) mit Zeitraffer-Videoaufnahmen überwacht, im Opel-Zoo in Kronberg 600 Nächte, im Tiergarten Schönbrunn in Wien 300 Nächte und im Wuppertaler Zoo 70 Nächte. Dies ergibt bei einer Erfassungszeit von jeweils 16:00 Uhr bis 8:00 Uhr für alle Elefanten zusammen eine Summe von 64.320 Stunden Verhaltensregistrierung. Es konnte nachgewiesen werden, dass das nächtliche Verhalten von Elefanten durch die Haltungsbedingungen beeinflusst wird. Drei Haltungssysteme konnten zum ersten Mal in einer Studie direkt miteinander verglichen und Unterschiede aufgezeigt werden. Auch eine saisonale Abhängigkeit des nächtlichen Verhaltens konnte beobachtet werden. Es stellte sich heraus, dass Elefanten im Winter mehr und früher schlafen als im Sommer. Dies muss im nächtlichen Management berücksichtigt werden. Soziale Kontakte beeinflussen das nächtliche Verhalten ebenfalls. Es konnte erstmals beschrieben werden, dass Elefanten sich gegenseitig aus dem „Schlaf im Liegen“ aufwecken und dieses „Aufwecken“ einen Einfluss auf die Schlafdauer im Liegen hat. Die Verfügbarkeit von Nahrung ist ebenfalls ein wichtiger Faktor. Es konnte gezeigt werden, wie Elefanten zu unterschiedlichen Zeiten der Nacht auf zusätzliche Futtergaben reagieren und dass sie zu bestimmten Zeiten durch das zusätzliche Nahrungsangebot gestört werden. Unter Anwendung chronoethologischer Methoden konnte herausgearbeitet werden, dass Störungen im nächtlichen Verhaltensmuster durch vermehrtes „Weben“ erhöhte „Lokomotion“ und Reduzierung des Schlafverhaltens angezeigt werden. Beim Auftreten von Krankheiten mit Schmerzen wird die schmerzende Stelle gekühlt, indem sie mit z.B. Matsch beworfen wird. Die in dieser Studie dargestellten Einflüsse auf das nächtliche Verhalten von Afrikanischen Elefanten wurden vorher noch nicht beschrieben oder systematisch untersucht. Sie stellen wichtige Erkenntnisse für die zukünftige Haltung und das Management von Elefanten dar, sowohl im Hinblick auf eine weitere Optimierung als auch in Bezug auf die Beurteilung ihres Wohlbefindens.
Stickstoff (NO), Kohlenmonoxid (CO) und Schwefelwasserstoff (H2S) gehören zur Gruppe der Gasotransmitter. Dabei handelt es sich um kleine gasförmige Signalmoleküle, welche innerhalb des Körpers gebildet werden und dort wichtige physiologische Funktionen bei der Regulation der Apoptose, der Proliferation, der Entzündungsreaktion und der Genexpression übernehmen. Aufgrund ihrer Membranpermeabilität ist die Wirkung der Gasotransmitter nicht an die Interaktion mit spezifischen membranständigen Rezeptoren gebundenen. Je nach Organ, Gewebe und Konzentration können diese Mediatoren unterschiedliche Prozesse beeinflussen und teils sogar gegenteilige Wirkungen hervorrufen.H2S beispielsweise kann im Verlauf der Leukozytenadhäsion im Epithelium anti-inflammatorisch, bei Brandwunden oder rheumatischen Erkrankungen jedoch pro-inflammatorisch wirken. Im Kreislaufsystem hingegen bewirkt H2S durch die Aktivierung von ATP-abhängigen K+-Kanälen und die damit zusammenhängende Vasorelaxion der glatten Muskelzellen einen eindeutig protektiven Effekt.
H2S kann je nach Substrat und Zelltyp durch eines von 3 Enzymen gebildet werden. Die Cystathionin-γ-Lyase (CSE) und die Cystathionin-β-Synthase (CBS) nutzen L-Cystein als Substrat für die Synthese von H2S. Das dritte H2S-bildende Enzym, die 3-Mercaptopyruvate Sulfurtransferase (3-MST) verwendet α-Ketoglutarat als Substrat, welches zuvor von der Cystein-Aminotransferse (CAT) aus L-Cystein synthetisiert wurde. Während die beiden Enzyme CSE und CBS im Zytosol der Zelle zu finden sind, ist die 3-MST hauptsächlich in den Mitochondrien der Zelle zu finden. Im Gegensatz zur CBS, welche eher ein konstitutiv exprimiertes Protein ist, wird die Expression der CSE auf der Transkriptionsebene durch u.a. Entzündungsmediatoren wie TNF-α oder Wachstumsfaktoren wie PDGF-BB induziert.
Ein Ziel der Arbeit war es, die Wirkung von H2S bei der Wundheilung, bei entzündlichen glomerulären Erkrankungen der Niere und beim Schlaganfall zu untersuchen. Für diesephänotypische Analysen stand ein Knockoutmodell für die CSE zur Verfügung.
Zudem wurden in dieser Arbeit Untersuchungen mit einem Knockoutmodell für das zytoskeletäre Protein durchgeführt. Bei Clp36 (PDLIM1) handelt es sich um ein PDLIM-Protein (PDZ and LIM domain protein),welches durch die Gasotransmitter NO und H2S auf transkriptioneller und translationaler Ebene reguliert wird ist und aufgrund seiner Assoziation mit dem Zytoskelett dynamische Vorgänge der Zelle moduliert. Es ist bereits bekannt, dass Clp36 ein negativer Regulator des Glykoprotein VI (GPVI), welches eine wichtige Rolle bei der Aktivierung von Thrombozyten spielt, ist.
Beide Knockoutmodelle wurden in murinen Mesangiumzellen der Niere und in Krankheitsmodellen der Haut (kutane Wundheilung)und des Gehirns (Schlaganfall mit dem MCAO-Modell) analysiert.
Neben nicht signifikanten Effekten im MCAO-Modell, konnten sowohl Effekte des CSE-, als auch des CLP36-KOs auf die Migration und Proliferation und im Falle der CSE auch auf die Adhäsion der murinen Mesangiumzellen beobachtet werden. Die Depletion von Clp36 führte zu einer Verringerung der Migrations- und einer Erhöhung der Proliferationsrate, wohingegen die Depletion der CSE zu einer Erhöhung der Migrations-, Proliferations- und Adhäsionsrate führte. Die vielversprechendsten Ergebnisse konnten im Tiermodell der kutanen Wundheilung generiert werden. Untersucht wurde die Expression der H2S-produzierenden Enzyme CSE, CBS und 3-MST. Alle drei Enzyme zeigten im Tiermodell keine transkriptionelle Regulation und blieben auch während der akuten Entzündungsphase und der proliferativen Phase der Wundheilung unverändert. Es konnte jedoch gezeigt werden, dass die Expression der CSE in der späten Phase der Wundheilung signifikant anstieg, wenn die Proliferation innerhalb des Granulationsgewebes und der Neoepidermis geringer wurde. Die Vermutung, dass H2S in dieser Phase eine wichtige Rolle spielt, konnte durch die Analyse der CSE-KO Mäuse bekräftigt werden, da dort der Verlust der CSE offenbar durch die CBS kompensiert wurde.
In immunhistochemischen Untersuchungen konnten insbesondere follikuläre Keratinozyten der Neo-Epidemis als Quelle der CSE-Expression identifiziert werden. Durch in-vitro Studien auf mRNA und Proteinebene in HaCaT Zellen wurde gezeigt, dass H2S die Keratinozyten-Differenzierung beeinflusst. Der langsam freisetzendeH2S-Donor GYY4137 konnte in humanen Keratinozyten zu einer signifikanten Erhöhung der Ca2+- induzierten Expression der frühen Keratinozyten-Differenzierungsmarker Cytokeratin 10 (CK10) und Involucrin (IVN) beitragen.
Im Laufe dieser Arbeit konnte der molekulare Mechanismus hinter diesen Beobachtungen noch nicht geklärt werden.
Durch weitere Versuche meiner Arbeitsgruppe konnte jedoch gezeigt werden, dass die GYY4137-abhängige Induktion der CK10-Expression durch eine verstärkte Bindung der RNA-Polymerase II an den CK10 Promotor zustande kommt.
Die im Rahmen dieser Arbeit durchgeführten Untersuchungen führten zu folgenden Ergebnissen: 1. Eindimensionale Gelelektrophoresen Die Analyse mitochondrialer Proteine aus juvenilen und seneszenten P. anserina-Wildstämmen mit Hilfe von eindimensionalen SDS- und eindimensionalen Blau-Nativen-Gelelektrophoresen zeigt keine deutlichen, seneszenzspezifischen Unterschiede. Im Gegensatz dazu werden in initialen Versuchen der nicht-radioaktiven 2D-PAGE differentiell gebildete Proteine visualisiert. 2. 2D-PAGE mit radioaktiv-markierten, mitochondrialen Proteinen aus jungen und alten P. anserina-Wildstämmen In der ungerichteten Proteomanalyse wurden 29 differentiell-gebildete Proteine identifiziert und zusätzlich zahlreiche Isoformen einiger Proteine gezeigt. Von der ß-ATPase wurden modifizierte Isoformen gefunden. Außerdem wurde eine seneszenspezifisch verringerte Bildung von ROS-Abwehr-Proteinen in den Mitochondrien detektiert. Im Gegensatz dazu wurde eine größere Menge eines Chaperons gefunden, das bei der Proteinsynthese eine Rolle spielt: eine Protein-Disulfid-Isomerase, die die Umlagerung und Neubildung von Di-Sulfid-Brücken bei der Faltung von Proteinen katalysiert. Zusätzlich wurde eine erhöhte Menge des Proteins SSC1 identifiziert. Dieses gehört zur Hsp70-Hitzeschock-Proteinfamilie. Es wurde ebenfalls eine erhöhte Menge des Apoptosefaktors Cyclophilin D in den mitochondrialen Proben aus den seneszenten Wildstämmen identifiziert. Die Identifizierung dieses Proteins in Mitochondrien von P. anserina stellt neben der Charakterisierung der Metacaspasen (Hamann et al., 2007) einen weiteren Ansatzpunkt für die Apoptoseforschung in P. anserina dar. Die molekularbiologische Analyse dieses Proteins wurde aufgrund dieser Proteomanalyse im Arbeitskreis aufgenommen (Dissertation D. Brust). Ein weiteres Protein, das in stark erhöhter Menge in den Proteinisolaten identifiziert wurde, ist PaMTH1. Im Rahmen der vorliegenden Arbeit wurden die Struktur und die Funktion dieser neu identifizierten differentiell-gebildeten Methyltransferase während der Alterung in P. anserina mit Hilfe molekularbiologischer, biochemischer und physiologischen Analysen untersucht. 3. Charakterisierung von PaMTH1 Im Rahmen von Northernblot-Analysen wurde gezeigt, dass die PaMth1-Transkriptmenge in drei unabhängigen alten Wildstämmen im Vergleich zu den entsprechenden jungen Wildtsämmen deutlich erhöht ist. In einer Westernblot-Analyse von Gesamtproteinen und Mitochondrien aus jungen und seneszenten Wildstämmen wird der seneszenzspezifische Anstieg der Proteinmenge verifiziert. Die genauere Einordnung von PaMTH1 in die Klasse I der Methyltransferasen und die Ergebnisse der Analyse der Substratspezifizität geben einen Hinweis auf eine Schutzfunktion durch die Verhinderung einer ROS-Entstehung unter der Beteiligung von Substanzen mit einer Catecholgruppe. Die Ergebnisse der Analyse der Modulation der PaMth1-Expression in P. anserina deuten ebenfalls auf eine Schutzwirkung von PaMTH1 hin: PaMth1-Überexpressionsstämme zeigen eine verbesserte Wuchsrate auf stress-induzierenden Medien, weniger carbonylierte Proteine und vor allem eine verlängerte Lebensspanne ohne physiologische Nachteile im Vergleich zum Wildstamm. Dagegen lebt die PaMth1-Deletionsmutante kürzer und wächst schlechter auf ROS-induzierenden Medien, sie zeigt allerdings keine erhöhte Menge von carbonylierten Proteinen im eindimensionalen „Oxyblot“. Die beobachtete Lebensspannenverkürzung der PaMth1-Deletionsmutante wird jedoch durch die Reversion dieser Stämme wieder aufgehoben, sodass die Hypothese des Schutzes vor der ROS-Generierung durch die Methylierung von Dihydroxylgruppen anhand der erhaltenen Daten unterstützt wird.
Aufgrund der problematischen Situation von mobilen Notebook-Arbeitsplätzen mit mannigfaltigen negativen Einflüssen auf den Muskel- und Skelettapparat wurde ein neuartiges, wandlungsfähiges Notebook entwickelt. Dieses besitzt ein ausziehbares Display. Ziel dieses Forschungsvorhabens war die erste wissenschaftliche Analyse und Evaluation der Anwendung dieses Notebooktyps. Es wurden verschiedene Testungen durchgeführt, die die Eigenschaften des Displays, welches sich mit Teleskopschienen nach oben herausziehen lässt, auf wissenschaftlicher Ebene analysiert.
In der Studie wurden Probanden in unterschiedlichen Stellungen bei der Arbeit an einem klassischen Notebook mit gewöhnlicher Notebook-Stellung, sowie an einem höhenverstellbaren Notebook untersucht. Die Daten zeigen, dass es hochsignifikante Unterschiede in den unterschiedlichen Stellungen gibt. Die ausgefahrene Stellung des höhenverstellbaren Notebooks ist dabei mit einem hochsignifikant geringeren Neigungswinkel des Kopfes verbunden. Da die vertikale Belastung der WS direkt von der Neigung des Kopfes abhängig ist, ist davon auszugehen, dass die ausgefahrene Displaystellung eine wesentlich geringere vertikale Belastung der Wirbelkörper induziert als eine gewöhnliche Notebookhaltungsposition. Diese Eigenschaften des höhenverstellbaren Notebooks entsprechen eher den ergonomischen Forderungen der BildscharbV. In Hinblick auf eine Trennung von Bildschirm und Tastatur, wie es die BildscharbV vorsieht, lassen sich allerdings die Defizite von Notebooks funktionsbedingt nicht ausräumen.
Die Untersuchungen zeigen, dass es keine Unterschiede zwischen Männern und Frauen bezüglich des Kopfneigungswinkels gibt.
Die Untersuchungen zeigen ferner, dass es in dieser Hinsicht auch keine Unterschiede zwischen Sehhilfeträgern und Nicht-Sehhilfeträgern gibt.
Zukünftige Studien sollten den Einsatz bei Patienten mit Erkrankungen des Muskel- und Skelettapparates untersuchen. Für zukünftige Studien sind darüber hinaus Einflüsse auf den gesamten oberen Haltungsapparat, sowie die Position der Tastatur von Interesse.
Analyse und Vorhersage von Kristallstrukturen tetraederförmiger Moleküle und fehlgeordneter Phasen
(2012)
Die Kristallstrukturen tetraederförmiger EX4-Moleküle mit E = C, Si, Ge, Sn, Pb und X = F, Cl, Br, I konnten in sieben Strukturtypen eingeteilt werden. In fast allen Verbindungen nehmen die Halogenatome eine verzerrte Kugelpackung (ccp, hcp, bcc, cp) ein. Die E-Atome besetzen in den dichtesten Kugelpackungen 1/8 aller Tetraederlücken, wobei sich für diese Atome ebenfalls eine Anordnung wie für verzerrte Kugelpackungen ergibt (cp, ccp, hcp). In den anderen Fällen (bcc, cp für die Anordnung der Halogenatome) ergibt sich für die Anordnung der E-Atome selbst ebenfalls eine verzerrte Kugelpackung (bcc, s). Dabei steht s für die Anordnung der E-Atome analog der Schwefelatome im Pyrit (FeS2). Jeder Strukturtyp unterscheidet sich in der Art der kürzesten Halogen-Halogen-Wechselwirkungen. Die in der Literatur für halogenierte organische Verbindungen beschriebenen Typen der Wechselwirkung lassen sich auch bei den EX4-Verbindungen finden. Die E-X-X-Winkel liegen in einem Bereich von 80-100° und 130-160° und sind damit etwas kleiner als für die halogenierten organischen Verbindungen. Mit Hilfe von Gitterenergieminimierungen konnten diverse potentielle Polymorphe für die EX4-Verbindungen vorhergesagt werden.
Eine vollständige Kristallstrukturvorhersage wurde für SiBr4 durchgeführt. Für diese Vorhersage wurden die Van-der-Waals-Parameter neu bestimmt. Dazu wurde das Br-Br-Potential mit Hilfe von Vergleichsrechnungen an den beiden experimentellen Strukturen des GeBr4 in den Raumgruppentypen Pa3, Z = 8 (s/ccp), und P21/c, Z = 4 (hcp/hcp), optimiert. Für die Vorhersage des SiBr4 konnten zwei der vorhergesagten Strukturen durch extern durchgeführte Kristallisationsexperimente bestätigt werden. Eine Hochtemperaturmodifikation kristallisiert oberhalb von 168K im Raumgruppentyp Pa3, Z = 8 im Strukturtyp s/ccp. Diese Struktur konnte bei der Vorhersage auf Rang 9 gefunden werden. Die Tieftemperaturmodifikation, die unterhalb von 168K vorliegt, kristallisiert im Raumgruppentyp P21/c, Z = 4 (Strukturtyp hcp/hcp). Diese Struktur hat Rang 4 der Vorhersage. Die vorhergesagten und experimentellen Strukturen zeigen nur geringe Abweichungen voneinander.
Für die tetraederförmigen E(CH3)4-Moleküle wurden für Tetramethylsilan und Tetramethylgerman vollständige Kristallstrukturvorhersagen durchgeführt. Die energetisch günstigste Struktur ist für beide Verbindungen im Raumgruppentyp Pa3 mit Z = 8 zu finden. Die energetisch zweitgünstigste Struktur hat den Raumgruppentyp Pnma mit Z = 4. Für Tetramethylsilan konnten die Strukturen mit Rang 1 und 2 experimentell bestätigt werden. Eine Hochdruckmodifikation des Tetramethylsilans kristallisiert im Raumgruppentyp Pa3 mit Z = 8. Diese Struktur entspricht der berechneten energetisch günstigsten Struktur auf Rang eins. Ihr konnte der Strukturtyp s/ccp zugeordnet werden. Mit Tieftemperatur-Röntgenpulverbeugungsexperimenten konnte eine Tieftemperaturmodifikation bei T = 100 K im Raumgruppentyp Pnma, Z = 4, mit Strukturtyp ccp/hcp gefunden werden.
Gitterenergieberechnungen wurden für die Strukturanalysen von drei fehlgeordneten Phasen eingesetzt. Experimentell bestimmte Kristallstrukturen von Azulen und Pigment Red 194 haben den Raumgruppentyp P21/c, Z = 2. Die Moleküle befinden sich dabei auf einer Punktlage mit Inversionssymmetrie. Da beide Moleküle kein Inversionszentrum aufweisen, kommt es zu einer Orientierungsfehlordnung. Für die rechnerische Analyse der Fehlordnung wurden jeweils sechs geordnete Modelle ausgehend von den fehlgeordneten Strukturen erstellt, die möglichst wenige Moleküle pro Elemenarzelle aufweisen sollten. Gitterenergieberechnungen und die Auswertung der Boltzmann-Verteilung zeigten, dass in bei beiden Kristallstrukturen eine statistische Fehlordnung der Moleküle vorliegt, die sich aus mehreren geordneten Modellen aufbauen lässt. Bei Azulen ist eine geordnete Struktur im Raumgruppentyp Pa, Z = 4, energetisch etwas günstiger als die anderen Modell. Für Pigment Red 194 zeigte sich, dass die Fehlordnung unter der Annahme, dass nur die berechneten Modelle die fehlgeordnete Struktur bilden, mit über 99%iger Wahrscheinlichkeit aus den vier energetisch günstigsten Modellen Pc, Z = 2, P21, Z = 2, P21/c, Z = 4 und Pc, Z = 4 besteht.
Die dritte untersuchte fehlgeordnete Struktur ist die des Natrium-p-chlorphenylsulfonat-Monohydrats. Die Fehlordnung bezieht sich hier nur auf die Phenylringe, die dort mit einer Besetzung von 50% zueinander senkrecht stehen. Mit Hilfe der Order-Disorder-Theorie konnten zwei geordnete Modelle im Raumgruppentyp P21/c und ein weiteres geordnetes Modell im Raumgruppentyp C1c1 (Z = 16, Z'= 2) aufgestellt werden. Gitterenergieminimierungen dieser Modelle zeigten, dass sich die Fehlordnung statistisch aus allen drei Modellen zusammensetzt. Das energetisch günstigste geordnete Modell im Raumgruppentyp P21/c, Z = 8 (Z' = 2), konnte als verzwillingte Struktur aus Einkristalldaten bestätigt werden.
Ziel dieser klinischen Studie war es, die Ergebnisse der operativen Behandlung eines idiopathischen Makulaforamens durch Vitrektomie, ggf. in Kombination mit einer Phakoemulsifikation, ILM-Peeling und einer Tamponade entweder mit Luft oder mit 20%-igem SF6-Gas zu vergleichen. Primärer Endpunkt war die Verschlussrate nach einer Vitrektomie und die Reoperationsrate bei primär nicht geschlossenen Makulaforamina. Sekundärer Endpunkt war die Visusentwicklung in der ersten postoperativen Woche und nach 3 Monaten.
In der vorliegenden Arbeit wurden hierzu retrospektiv 117 Augen von 117 konsekutiven Patienten analysiert. Es wurden die Ergebnisse von 2 Patientengruppen verglichen. In der ersten Gruppe wurden 66 Augen (m=27, w=39, Altersmedian 70 Jahre), bei denen am Ende der Vitrektomie eine Tamponade mit Luft erfolgte, untersucht. In der zweiten Gruppe wurden die Ergebnisse von 51 Augen (m=20, w=31, Altersmedian 71 Jahre), bei denen 20%-SF6-Gas als Tamponade verwendet wurde, ausgewertet. Bei etwa 70 % der Augen beider Gruppen erfolgte eine simultane Phakoemulsifikation. Der Verschluss des Makulaforamens wurde bereits in den ersten postoperativen Tagen mit einem modifizierten Fourier Domain-OCT untersucht. Sobald der Verschluss des Makulaforamens im OCT gesichert werden konnte, wurde die postoperative „Gesicht nach unten“-Lagerung („Bauchlage“) beendet. Die mediane Lagerungszeit betrug 1 Tag (Spanne 1-6 Tage). Der Zeitraum der Nachbeobachtung betrug 3 Monate (Median).
Die Verschlussrate nach einer Vitrektomie aller Makulaforamina betrug 87,2% (102/117 Augen). Die primäre Verschlussrate der Luft-Gruppe und der SF6-Gas-Gruppe betrug 83,3% (55/66 Augen) bzw. 92,2% (47/51 Augen). Bei Augen mit einem persistierenden Foramen erfolgte eine frühe Reoperation. Die Verschlussrate nach 3 Monaten lag insgesamt bei 99,1% (116/117 Augen), in der Luft-Gruppe bei 98,5% (65/66 Augen) und in der SF6-Gas-Gruppe bei 100% (51/51 Augen). Es zeigte sich kein statistisch signifikanter Unterschied der Verschlussrate bzw. der anatomischen Ergebnisse zwischen den beiden Endotamponade-Gruppen.
Es konnte jedoch ein statistisch signifikanter Unterschied des Fernvisus bei der Entlassung zwischen beiden Endotamponadegruppen nachgewiesen werden. Der logMAR-Visus bei Entlassung lag in der Luft-Gruppe mit 1,3 (Median) deutlich unter dem Visus der SF6-Gas-Gruppe mit 1,9 (Median). Die Anwendung von Luft führte somit im Vergleich zu SF6 zu einem schnelleren postoperativen Visusanstieg. In beiden Gruppen zeigte sich nach 3 Monaten eine signifikante Visusbesserung. Es ließ sich kein signifikanter Unterschied des Fernvisus zwischen den beiden Gruppen mehr nachweisen.
Die Makulaforamenchirurgie mit pars plana Vitrektomie und Peeling der ILM erzielte sowohl mit einer Luft- als auch mit einer 20%-SF6-Gas-Tamponade guten anatomischen und funktionellen Ergebnissen. Mit einer kurz wirksamen Endotamponade erscheint eine postoperative Lagerung essenziell, dürfte aber in den meisten Fällen nur wenige Tage erforderlich sein, um den Verschluss eines durchgreifenden Makulaforamens zu erreichen. Die Reoperations-Rate nach einer Lufttamponade war bei sehr großen Foramina (> 600 µm) signifikant höher als bei Foramina mit einem Durchmesser kleiner 600 µm. Daher scheint die Anwendung von Gasen, die länger als Luft wirken, nur bei sehr großen Foramina erforderlich zu sein. Vorteil einer kurz wirkenden Lufttamponade ist die postoperativ um einige Tage schneller einsetzende visuelle Rehabilitation, so dass die Patienten früher in ihren Alltag zurückkehren können. Eine frühe postoperative Untersuchung der Makula unter Einsatz der optischen Kohärenztomographie ist Voraussetzung für eine individualisierte Steuerung der Lagerung und für eine möglichst frühe Erkennung und Reoperation von nicht geschlossenen Makulalöchern.
Die Chloroplastenbewegung ist eine der wichtigsten Anpassungen, die Pflanzen entwickelt haben, um eine effiziente Ausbeute an Lichtquanten für die Photosynthese zu gewährleisten. Auch wenn der genaue Mechanismus und die Signalwege, die diesen Prozess vermitteln, noch nicht vollständig verstanden sind, konnten einige an der Chloroplastenbewegung beteiligte Proteine (phot1, phot2, chup1, Aktin, Profilin) in den letzten Jahren identifiziert werden. Chup1, das an der äußeren Chloroplastenmembran verankerte Protein, wird als putativer Linker zwischen den Chloroplasten und dem Aktin-Zytoskelett gesehen. Durch die Interaktion mit Profilaktin reguliert chup1 die Aktin-Polymerisierung und somit auch die Chloroplastenbewegung. Die Analyse der intra- und intermolekularen Interaktionen von chup1, die in dieser Studie ermittelt wurden, deutet auf eine Homodimerisierung von chup1 durch die Coiled coil Domäne sowie auf eine Assoziation des N- mit dem C-terminalen Leuzin- Zipper hin. Neben diesen Interaktionen konnte für einen der vier putativen Interaktionspartner von chup1, der wall associated kinase 3, eine mögliche Funktion bei der Vermeidungsbewegung der Chloroplasten gezeigt werden. In Anbetracht dieser Interaktion und der postulierten Phosphorylierungsstellen in chup1, könnte eine Regulierung von chup1 durch Phosphorylierung erfolgen. Um die Funktionen von chup1 und phot2 besser zu verstehen, wurden die Pflanzen mit knock-out in diesen Gene genauer charakterisiert und die T-DNA Insertionslinien von chup1 und phot2 zeigen keine Reduzierung in der photosynthetischen Aktivität. Im Gegensatz dazu, bedingt der knock out von beiden Genen eine deutliche Verminderung der photosynthetischen Leistung. Infolge der fehlenden Chloroplastenbewegung im chup1phot2 Doppel knock out führt das möglicherweise zu einem verringerten Schutz der Photosynthese. Dies bestätigt weiter die Verbindung zwischen der durch phot2 induzierten Signalkaskade und der Aktin-Polymerisierung, die durch chup1 reguliert wird. Um den Einfluss von chup1, phot1 und phot2 auf die transkriptionelle Regulierung nach BL zu analysieren, wurde das globale Expressionsmuster nach BL-Behandlung untersucht. Bei der Analyse der Mutanten-Pflanzen mit einem Defekt in der Chloroplastenbewegung (chup1, phot1, phot2) konnte keine Beeinflussung der Regulierung der Genexpression in BL-gesteuerten Signalkaskaden durch diese Proteine beobachtet werden. Die Regulierung der Expression geschieht eher auf posttranskriptioneller Ebene und wird mit Hilfe von microRNA gesteuert.
Im adulten Säugerhirn findet Neurogenese in der SVZ der Seitenventrikel kontinuierlich statt. Eine Vielzahl von Signalsystemen steuert in komplexer Weise zelluläre Antworten und reguliert die Proliferation, Differenzierug und Wanderung NSZ. Gegenwärtig ist nur wenig über die zugrundeliegenden Signalwege bekannt. Zunehmend gibt es Hinweise darauf, dass Nukleotide an diesen Prozessen beteiligt sind. Frühere Untersuchungen unserer Arbeitsgruppe zeigten, das die Nukleotide ADPbetaS und UTP in kultivierten NSZ der adulten SVZ einen schnellen Kalziumeinstrom induzieren und die Wachstumsfaktor-vermittelte NSZ-Proliferation steigern. In der vorliegenden Arbeit wurde ein System zur Kultivierung adhärenter adulter NSZ etabliert. Die Untersuchungen zeigen, dass adulte NSZ eine Vielzahl an P2Y- und P2X-Rezeptoren, sowie die Nukleotid-hydrolysierenden Enzyme NTPDase2 und TNAP exprimieren. Untersuchungen der ADPbetaS-, UTP- und EGF-vermittelten Signalwege zeigen, dass alle drei Agonisten eine ERK1/2- und CREB-Phosphorylierung induzieren, wobei sich die zeitlichen Charakteristika zwischen den Nukleotiden und EGF unterscheiden. Inhibierungsexperimente geben Einblicke in die dabei aktivierten Signalkaskaden und weisen auf eine ADPbetaS-induzierte Transaktivierung des EGF-Rezeptors hin. Während UTP über den P2Y2-Rezeptor wirkt, übt ADPbetaS seine Funktion über den P2Y1- und P2Y13-Rezeptor aus. Die Daten implizieren zudem, dass Nukleotide und EGF gleiche Zielproteine über verschiedene Signalwege induzieren und dass sie das Potenzial besitzen, bei der Kontrolle der Zellproliferation in der adulten Neurogenese synergistisch zu agieren. Vergleichende Analysen mit kultivierten NSZ aus Wildtyp-, P2Y1- und P2Y2-Rezeptor-Knockout-Mäusen belegen ein verändertes Antwortverhalten in Gegenwart von ADPbetaS, UTP und EGF und lassen kompensatorische Mechanismen vermuten. Die Resultate dieser Arbeit demonstrieren zudem, dass ATP, ADPbetaS, UTP und EGF die Migration von NSZ induzieren. Parallel dazu konnten Veränderungen des Aktinzytoskelletes, wie die Zunahme an F-Aktin, die Bildung von Stressfasern und eine Veränderung der Zellmorphologie gezeigt werden. Diese Prozesse gehen mit einer Aktivierung der Proteinkinasen Akt und FAK einher. Die Daten weisen darauf hin, dass Nukleotide und EGF für die Zytoarchitektur der SVZ und die Wanderung von Neuroblasten zum OB eine wichtige Rollen spielen könnten.
Elektronische Gesundheitsnetzwerke entwickeln sich zunehmend zu einer wichtigen Sparte im Bereich der Gesundheitsinformation. Mittlerweile stehen zahlreiche Online-Foren und -Expertenräte für den Austausch von Patienten untereinander oder zur Ratsuche in Gesundheitsfragen zur Verfügung. Besonders chronisch kranken Patienten kann so der Kontakt zur Außenwelt erleichtert und einer psychosozialen und medizinischen Unterversorgung entgegen gewirkt werden. Während es unstrittig ist, dass virtuelle Foren und Expertenräte bedeutende Chancen eröffnen, gibt es bisher kaum wissenschaftlich begleitete Projekte, die die Qualität und Effizienz der verfügbaren Dienste evaluieren. In der vorliegenden Arbeit wird der Nutzen elektronischer Gesundheitsnetzwerke am Beispiel des Online- Expertenrats muko.info analysiert. Das Modellprojekt wurde 2003 in Kooperation zwischen der Johann- Wolfgang- Goethe- Universität Frankfurt und dem Mukoviszidose e.V. zum Schwerpunktthema „Mukoviszidose“ initiiert. Hierbei wird die Hypothese geprüft, dass professionelle Beratungsangebote im Internet geeignet sind, einen relevanten Beitrag in dem vielschichtigen Versorgungskonzept chronisch kranker Patienten mit Mukoviszidose zu leisten. Im Rahmen einer 4- jährigen Projektphase wurden insgesamt 1.035 Kontaktaufnahmen mit 2.045 gestellten Fragen registriert. Davon verteilten sich 1.922 der Fragen auf das Patientenforum, während 123 Fragen aus dem Fachforum stammten. Die Fragen wurden unter Berücksichtigung quantitativer, qualitativer sowie emotionaler und psychosozialer Parameter untersucht. Als quantitative Parameter fanden in unserer Analyse die Gesamtzahlen der Kontakte und Fragestellungen, der Ratsuchenden und Ratgeber sowie eine Auswahl von 15 thematischen Kategorien Berücksichtigung. Ebenso ging die Unterscheidung zwischen Fragestellern und Patienten sowie die jeweilige Geschlechter- und Altersverteilung, aber auch die Berufsparten und Fachrichtungen sowohl der berufsbedingten Fragesteller als auch der Experten mit ein. Hinsichtlich der qualitativen Parameter wurden die Gründe der Ratsuchenden für ihre Teilnahme am jeweiligen Forum, die professionellen Rahmenbedingungen des Projekts und die Patientenzufriedenheit in die Auswertung miteinbezogen. Hierfür war ebenfalls die Betrachtung sowohl der inhaltlichen und haftungsrechtlichen Richtlinien als auch der organisatorischen, ethischen und prozeduralen Prinzipien erforderlich. Ferner fand eine Analyse der verbalisierten Emotionen in den Fragetexten statt. Es wurde eine Einteilung in 10 Emotionen gewählt und diese quantitativ der Anzahl der rein sachlich formulierten Antworten gegenübergestellt. Die daraus gewonnenen Ergebnisse wurden in Korrelation mit speziellen Rubriken, Altersklassen und Personengruppen gesetzt. Die Ergebnisse unserer Analyse belegen eine ausgeglichene Frequentierung des Expertenrats während der Projektzeit, wobei sich ein deutlicher Überhang weiblicher Fragesteller in beiden Foren zeigte. Die Gründe für die Teilnahme der Patienten beruhten in beiden Foren primär auf dem Wunsch nach Beantwortung fachlichmedizinischer Fragen, relevant häufig auch in den Bemühungen um eine Zweitmeinung. Qualitativ herrschte im Expertenrat eine grundsätzlich freundliche und spannungsarme Atmosphäre, welche von dem professionellen Verhalten der Experten sowohl in fachlicher als auch in psychosozialer Hinsicht gestützt wurde. Der sensible und ermutigende Umgang mit den Patienten sowie die meist zeitnahe, ausführliche und fundierte Bearbeitung der Anliegen wurde von den Fragestellern hoch geschätzt und wiederholt positiv bewertet. Im Zusammenhang der emotionalen und psychosozialen Situation der Betroffenen spiegelten sich im Patientenforum die enormen Belastungen und der starke emotionale Druck der Menschen im Umgang mit der chronischen Erkrankung in einer Vielzahl der Fragen wider. Demgegenüber wies sich das Fachforum durch fachlich- distanzierte, meist sachlich formulierte Anliegen aus. Unsere Ergebnisse zeigen, dass die Qualität der Antworten und die Patientenzufriedenheit wesentlich davon abhängen, ob es dem Experten gelingt, sich von der rein fachlichen Problematik zu lösen und seinen Blick für die emotionalen Bedürfnisse der Patienten zu öffnen. Ein respektvoller, ermutigender Umgang mit den Fragestellern sowie die Berücksichtigung ihrer emotionalen Bedürfnisse konnten neben der medizinisch- fundierten Beratung als wichtigste Aufgaben der Experten registriert werden. Finden diese Basisvariablen ihre Anwendung, hat ein professioneller Expertenrat im Internet nicht nur das Potential, einen ergänzenden Beitrag zum bestehenden Versorgungssystem für Patienten mit Mukoviszidose zu leisten. Vielmehr zeigte sich der Expertenrat vor dem Hintergrund der spezifischen Vorteile des Mediums Internet in einem geschützten, professionellen Rahmen als geeignetes Angebot für chronisch kranke Menschen, um diese zeitlich, geographisch, fachlich sowie emotional zu entlasten und zu stabilisieren. Die komplexen Anforderungen des Online- Expertenrats stellen die aktiven Mitglieder vor besondere Belastungen. Unsere Ergebnisse machen deutlich, dass neben medizinisch- fachlicher Expertise auch psychosoziale Kompetenz notwendig ist, welche ggfs. im Rahmen projektbegleitender Schulungen vermittelt und gepflegt werden sollte.
Mit einer immer weiter steigenden Lebenserwartung, steigt auch die Anzahl der an Alzheimer erkrankten Patienten stetig an. Die Kosten für die Versorgung dieser Patienten sind für das Gesundheitssystem weltweit immens.
Bislang führten alle Therapiebemühungen zu mangelhaften Erfolgen. Ein medikamentöses Eingreifen in den Krankheitsverlauf und die Beeinflussung der auslösenden Faktoren konnte, trotz eines hohen Forschungsaufwandes bislang nicht realisiert werden.
Diese Arbeit beschäftigt sich mit der quantitativen analytischen Charakterisierung zweier Substanzen, die sich auf drei relevante Bereiche auswirken, die für die Entwicklung und das Fortschreiten der Alzheimer Krankheit verantwortlich gemacht werden. Die γ-Sekretase, die an der Entstehung der toxischen Aβ-Peptide beteiligt ist, die dann durch Agglomerisierung zu den charakteristischen pathologischen Aβ-Plaques führen. Der nukleäre Rezeptor PPARγ, welcher an der Genexpression vor allem inflammatorischer Faktoren im Gehirn beteiligt ist und weitere AD relevante Vorgänge wie den Abbau der Aβ-Peptide beeinflusst. Und schließlich die mitochondriale Dysfunktion, die zur verringerten Energieversorgung und schließlich zum Untergang von Synapsen und ganzer Neuronen führen kann. Diese drei Bereiche konnten in vitro durch die zwei untersuchten Substanzen MH84, einem Pirinixinsäurederivat und MH163, einem Zimstsäurederivat, positiv beeinflusst werden.
Aus diesem Grund wurden in vivo Studien zu beiden Verbindungen an Mäusen geplant, die die pharmakokinetischen und pharmakodynamischen Eigenschaften der Substanzen untersuchen sollten.
Im Vorfeld dieser Studien wurden analytische Methoden entwickelt um die Substanzen aus den biologischen Proben bestimmen zu können. Das Hauptaugenmerk lag dabei auf einer besonders hohen Empfindlichkeit um auch sehr kleine Konzentrationen, die sich bei den Studien im Hirngewebe der Tiere ergeben können, bestimmen zu können.
Die Validierung der Methoden sollte nach Guideline der FDA (Food and Drug Administration) für bioanalytische Methodenentwicklung erfolgen.
Die Validierung stellt die Grundlage dar, um die Gehalte der Verbindungen aus biologischen Matrices wie Plasma und Hirn einwandfrei quantifizieren zu können und somit auch die Bioverfügbarkeit im ZNS nachzuweisen.
Für MH84 konnte eine empfindliche LC/MS-Methode entwickelt und validiert werden. Dabei wurde eine MultoHigh 100 RP 18-5µ, 125 x 4 mm HPLC Säule und ein MicrOTOF-QII Massenspektrometer der Firma Bruker® mit einer APCI-Quelle für die Ionsierung verwendet.
Es konnten alle Forderungen der FDA Guideline zur analytischen Methode erfüllt werden und die Stabilität der Substanz zweifelsfrei bewiesen werden.
Die validierte Methode wurde anschließend für die Auswertung einer Pharmakokinetik-Studie an gesunden Mäusen verwendet. Der zeitliche Konzentrationsverlauf von MH84 im Plasma und Hirngewebe, sowie die ZNS-Bioverfügbarkeit der Substanz, konnten mit Hilfe der analytischen Methode bestimmt werden.
Zusätzlich wurden eine Akkumulationsstudie und zwei pharmakodynamische Studien durchgeführt. Dabei wurde festgestellt, dass sich MH84 nach 21-tägiger, oraler Gabe von 12_mg/Kg nicht im Gehirn gesunder Mäuse anreichert.
Die Wirkung von MH84 auf transgene Tiere, die das Krankheitsmodell beschreiben, wurde ebenfalls nach 21 Tagen oraler Gabe untersucht. Die Tiere waren deutlich vitaler im Vergleich zu den transgenen Kontrolltieren.
Es konnten vor allem Verbesserungen der mitochondrialen Dysfunktion festgestellt werden, die zu einer vollständigen Wiederherstellung der Parameter im Vergleich zu nicht-transgenen Kontrolltieren führten. Die Aβ-Spiegel konnten vermutlich aufgrund der kurzen Behandlungsdauer nur leicht gesenkt werden.
Für MH163 wurde ebenfalls eine empfindliche Analysenmethode entwickelt. Dabei konnte die gleiche HPLC-Säule wie bei MH84 verwendet werden. Die chromatographischen Bedingungen und die APCI-Parameter wurden für diese Verbindung neu optimiert.
Im Verlauf der Methodenentwicklung wurden jedoch verschiedene Instabilitäten der Substanz sichtbar. Dabei handelte es sich licht- und zeitabhängige Vorgänge.
Es kam infolge einer E/Z-Isomerisierung an der Doppelbindung der Zimtsäuregruppe zu einem zweiten analytischen Signal, welches bei der Anwendung der entwickelten LC/MS- Methode sichtbar wurde. Die Gesamtfläche beider Signale von MH163 zeigte zusätzlich eine ebenfalls zeitabhängige Abnahme. Durch eine Strukturaufklärung konnte ein Coumarin-Derivat als mögliches Umlagerungsprodukt identifiziert werden.
Da durch die Umlagerungsprozesse nicht sichergestellt ist, welche Verbindung die Aktivität in den in vitro Testsystemen ausgelöst hat und eine einwandfreie quantitative Bestimmung von MH163 in einem für die Analytik aus den Matrices benötigten Zeitraum nicht möglich ist, wurden die Tierstudien zu MH163 abgesagt.
as Locus coeruleus-noradrenerge System ist die primäre Quelle für zentrales corticales und subcorticales Noradrenalin. Die noradrenergen Projektionen des LC sind an der Modulation einer Vielzahl von funktionellen zentralen Abläufen beteiligt, u.a. an Aufmerksamkeitsprozessen, der Vermittlung von Stress und der Schlaf-Wach-Koordination, aber auch an der Koordination spezifischerer kognitiver Funktionen im Rahmen von Belohnungs-orientiertem Verhalten.
Die im Rahmen der vorliegenden Arbeit im anatomisch-topographischen Teil durchgeführten Experimente belegen eine dichte noradrenerge Innervation des präfrontalen Cortex, des dorsalen und ventralen Hippocampus, und des Kleinhirns durch Neurone des Locus coeruleus. Innerhalb des LC sind die nach präfrontal und hippocampal projizierenden Neurone vorwiegend im dorsalen Anschnitt über die gesamte rostro-caudale Achse zu finden. Der Anteil ipsilateral gelabelter Zellen überwiegt deutlich. Coeruleocerebelläre Neurone sind innerhalb des LC sowohl in den dorsalen als auch ventralen Abschnitten, ebenfalls über die gesamte rostro-caudale Achse, zu finden. Der Anteil kontralateral gelabelter Zellen ist relativ höher als bei den anderen Projektionen.
Die im ersten elektrophysiologischen Teil der Arbeit durchgeführten Experimente belegen ein in den Grundeigenschaften ähnliches Feuerungsmuster selektiv identifizierter coeruleo-präfrontaler und coeruleo-hippocampaler Nervenzellen. Einzelne Aktionspotential-Parameter waren signifikant unterschiedlich, hinweisend auf unterschiedliche hyperpolarisierende Ströme in beiden Populationen. Eine Überprüfung des a2-Autorezeptor-Status im zweiten elektrophysiologischen Teil der Arbeit ergab ein fehlendes Ansprechen der coeruleo-präfrontalen Neurone auf a2-Blockade (im Gegensatz zu den coeruleo-hippocampalen Neuronen); dieser Befund ist vereinbar am ehesten mit fehlenden oder funktionell down-regulierten a2-Rezeptoren selektiv in nach präfrontal projizierenden Neuronen des Locus coeruleus. Hierbei handelt es sich um einen in der Literatur nicht vorbeschriebenen Befund.
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Im Rahmen dieser Arbeit wurde ein Reaktionsmikroskop (REMI) nach dem Messprinzip COLTRIMS (Cold Target Recoil Ion Momentum Spectrometry) neu konstruiert und aufgebaut. Die Leistungsfähigkeit des Experimentaufbaus konnte sowohl in diversen Testreihen als auch anschließend unter realen Messbedingungen an der Synchrotronstrahlungsanlage SOLEIL und am endgültigen Bestimmungsort SQS-Instrument (Small Quantum Systems) des Freie-Elektronen-Lasers European XFEL (X-ray free-electron laser) eindrucksvoll unter Beweis gestellt werden.
Mit der Experimentiertechnik COLTRIMS ist es möglich, alle geladenen Fragmente einer Wechselwirkung eines Projektilteilchens mit einem Targetteilchen mittels zweier orts- und zeitauflösender Detektoren nachzuweisen. In einem Vakuumrezipienten wird die als Molekularstrahl präparierte Targetsubstanz inmitten der Hauptkammer zentral mit einem Projektilstrahl (z.B. des XFEL) zum Überlapp gebracht, sodass dort eine Wechselwirkung stattfinden kann. Bei den entstehenden Fragmenten handelt es sich um positiv geladene Ionen sowie negative geladene Elektronen. Elektrische Felder, erzeugt durch eine Spektrometer-Einheit, sowie durch Helmholtz-Spulen erzeugte magnetische Felder ermöglichen es, die geladenen Fragmente in Richtung der Detektoren zu lenken. Die Orts- und Zeitmessung eines einzelnen Teilchens (z.B. eines Ions) findet in Koinzidenz mit den anderen Teilchen (z.B. weiteren Ionen bzw. Elektronen) statt. Mit dieser Messmethode können die Impulsvektoren und Ladungszustände aller geladenen Fragmente in Koinzidenz gemessen werden. Da hierbei die geometrische Anordnung der einzelnen Komponenten für die Leistungsfähigkeit des Experiments eine entscheidende Rolle spielt, mussten bei der Neukonstruktion des COLTRIMS-Apparates für den Einsatz an einem Freie-Elektronen-Laser (FEL) einige Rahmenbedingungen erfüllt werden. Besonders wurden die hohen Vakuumvoraussetzungen an den Experimentaufbau aufgrund der enormen Lichtintensität eines FEL beachtet. Das Zusammenspiel der vielen Einzelkomponenten konnte zunächst in mehreren Testreihen überprüft werden. Unter anderem durch Variation der Vakuumbauteile in Material und Beschaffenheit konnten die zuvor ermittelten Vorgaben schließlich erreicht werden. Das neu konstruierte Target-Präparationssystem zur Erzeugung molekularer Gasstrahlen erlaubt nun den Einsatz von bis zu vier unterschiedlich dimensionierten, differentiell gepumpten Stufen. Zudem wurden hochpräzise Piezo-Aktuatoren verbaut, welche die Bewegung von Blenden im Vakuum erlauben, wodurch eine variable Einstellung des lokalen Targetdrucks ermöglicht wird. Die Anpassung der elektrischen Felder des Spektrometers für ein jeweiliges Experiment wurde mittels Simulationen der Teilchentrajektorien, Teilchenflugzeiten sowie der Detektorauflösung durchgeführt.
Da die in dieser Arbeit besprochenen Messungen und Ergebnisse die Wechselwirkungsprozesse von Röntgenstrahlung bzw. Synchrotronstrahlung mit Materie thematisieren, wird die Erzeugung von Synchrotronstrahlung sowohl in Kreisbeschleunigern als auch in den modernen Freie-Elektronen-Lasern (FEL) erklärt und hergeleitet. Der im Röntgenbereich arbeitende Freie-Elektronen-Laser European XFEL, welcher u.A. als Strahlungsquelle für die hier gezeigten Experimente diente, ist eine von derzeit noch wenigen Anlagen ihrer Art weltweit. Seine Lichtintensität in diesem Wellenlängenbereich liegt bis zu acht Größenordnungen über den bisher verwendeten Anlagen für Synchrotronstrahlung.
Beim ersten Einsatz der neuen Apparatur an der Synchrotronstrahlungsanlage SOLEIL wurde der ultraschnelle Dissoziationsprozess von Chlormethan (CH3Cl) untersucht. Während des Zerfallsprozesses nach Anregung durch Röntgenstrahlung werden hochenergetische Auger-Elektronen emittiert, welche in Koinzidenz mit verschiedenen Molekülfragmenten nachgewiesen wurden. Durch den Zerfallsmechanismus der ultraschnellen Dissoziation wird die Auger-Elektronenemission nach resonanter Molekülanregung während der Dissoziation des Moleküls beschrieben. Die kinetische Energie des Auger-Elektrons ist dabei abhängig von seinem Emissionszeitpunkt. Somit können die gemessenen Auger-Elektronen ein „Standbild“ der zeitlichen Abfolge des Dissoziationsprozesses liefern.
Es wird eine detaillierte Beschreibung der Datenanalyse vorgenommen, welche aus Kalibrationsmessungen und einer Interpretation der Messdaten besteht. Die abschließende Betrachtung besteht in der Darstellung der Elektronenemissionswinkelverteilungen im molekülfesten Koordinatensystem. Die Winkelverteilung der Auger-Elektronen wird am Anfang der Dissoziation vom umgebenden Molekül- potential beeinflusst und zeigt deutliche Strukturen entlang der Bindungsachse. Entfernen sich die Bindungspartner voneinander und das Auger-Elektron wird währenddessen emittiert, so verschwinden diese Strukturen zunehmend und eine Vorzugsemissionsrichtung senkrecht zur Molekülachse wird sichtbar.
Die Analyse der Messdaten zur Untersuchung von Multiphotonen-Ionisation an Sauerstoff-Molekülen am Freie-Elektronen-Laser European XFEL ermöglichte unter anderem die Beobachtung „hohler Moleküle“, also Systemen mit Doppelinnerschalen- Vakanzen. Solche Zustände können vor allem durch die sequentielle Absorption zweier Photonen entstehen, wobei die hierbei nötige Photonendichte nur von FEL- Anlagen bereit gestellt werden kann. Hier konnte das Ziel erreicht werden, erstmalig die Emissionswinkelverteilungen der Photoelektronen von mehrfach ionisierten Sauerstoff-Molekülen (O+/O3+-Aufbruchskanal) als Folge der ablaufenden Mechanismen femtosekundengenau zu beobachten. Hierzu wurde ein vereinfachtes Schema der verschiedenen Zerfallsschritte erstellt und schließlich ermittelt, dass der Zerfall durch eine PAPA-Sequenz beschrieben werden kann. Bei dieser handelt es sich um die zweimalige Abfolge von Photoionisation und Auger-Zerfall. Somit werden vier positive Ladungen im Molekül erzeugt. Das zweite Photon des XFEL wird dabei während der Dissoziation der sich Coulomb-abstoßenden Fragmente absorbiert, weshalb es sich um einen zweistufigen Prozess aus Anrege- und Abfrage- Schritt (Pump-Probe) handelt. Schlussendlich gelang zudem der Nachweis von Doppelinnerschalen-Vakanzen im Sauerstoff-Molekül nach Selektion des O2+/O2+- Aufbruchkanals. Hierfür konnten die beiden Möglichkeiten einer zweiseitigen oder einseitigen Doppelinnerschalen-Vakanz getrennt betrachtet werden und ebenfalls erstmalig das Verhalten der Elektronenemission dieser beiden Zustände verglichen werden.
Ziel der vorliegenden Arbeit ist es die computergestützte, lichtoptometrische Gesichtsscannung ‚Primos body‘ zur dreidimensionalen Weichteilvermessung des Gesichts gegenüber der althergebrachten, manuellen Gesichtvermessung durch das ‚Clinometer nach Dr. Behrend‘ für den Bereich der Kieferorthopädie zu evaluieren. An dieser Untersuchung haben insgesamt 42 gesunde Erwachsene im Alter zwischen 24 und 51 Jahren teilgenommen. Um die optimalen Versuchsanordnungen sowie die Untersucher-Intervariabilität der Geräte festzustellen sind Voruntersuchungen durchgeführt worden. Bestandteil der Hauptuntersuchungen ist es mittels beider Apparaturen definierte Winkel zu vermessen und vergleichend auszuwerten. Für beide Messreihen kommen Landmarken im Bereich der Gesichtsmitte (Glabella, Nasenspitze und Hauptpogonion) zur Anwendung. Bezüglich Primos body werden zusätzlich die Abbildungen lächelnder sowie nicht lächelnder Gesichter (l- und nl- Messreihe) softwaregestützt nach definierten Winkeln ausgewertet. Die Voruntersuchungen ergeben, dass für das Clinometer die Methode „Fläche – Kopfhalterung“ als die sicherste Variante bezüglich der Reproduzierbarkeit der Messwerte einzustufen ist. Zur zusätzlichen Fixierung des Clinometers sollte daher zukünftig eine Kopfhalterung eingesetzt werden. Ferner sollte es auf eine Fläche aufgelegt werden. Abgesehen davon besagen die statistischen Auswertungen, dass das Clinometer nach Dr. Behrend einer häheren Untersucher-Intervariabilität unterliegt, als das Primos body. Die Untersucher-Intervariabilität des Clinometers liegt aber in einer klinisch wenig relevanten Größenordnung (<1°).
Für die Messungen der Hauptuntersuchungen mittels des Primos bodys sind folgende Winkel gewählt worden: Die erste Halbgerade stellt immer die Bipupillarlinie dar, die zweiten Halbgeraden werden gebildet aus den Verbindungslinien zwischen 1) Glabella und Nasenspitze (BN); 2) Glabella und Hauptpogonion (BK); 3) den beiden äußeren Augenwinkeln (BäA); 4) den bei-den Mundwinkeln (BM); 5) den beiden inneren Augenwinkeln (BiA); 6) Glabella und dem Interincisalpunkt (BI) sowie 7) den beiden Eckzahnspitzen (BE).
Der Winkel BN hat in den l- und nl-Messreihen die größte Distanz zur Symmetrieebene, beim Lächeln verändert er sich am stärksten und bezüglich der Standardabweichung unterliegt er der größten Streuung. Der Winkel BäA unterliegt der kleinsten Distanz zur 0°-Ebene, verändert sich beim Lächeln am wenigsten und weist bezüglich der Standardabweichung die geringste Streuung auf. Der Winkel BK konnte vom Untersucher am präzisesten bestimmt werden, dem Winkel BE wird hingegen die größte Ungenauigkeit zugeschrieben. Die Gesichter der Probanden dieser Studie werden beim Lächeln nicht symmetrischer oder asymmetrischer. Vielmehr nähert sich die Veränderung einer Gauß`schen Normalverteilung an. Der Winkel BK verändert sich beim Lächeln signifikant stärker, wenn er in nicht lächelnder Stellung weit von der Symmetrieebene entfernt ist (Spearman-Rho-Test: p=0,015). Für alle anderen Winkel sind keine Signifikanzen diesbezüglich festzustellen. Auch gilt für BK: Die Gesichter der Frauen der Studie sind sowohl in der nl- als auch l-Messreihe bezüglich des Winkels BK signifikant symmetrischer als die der Männer (Wilcoxon-Mann-Whitney-U-Tests: p<0,05). Der Bland-Altman-Test ergibt, dass der Winkel BK eher mit dem Ästhetikwinkel vergleichbar ist als der Winkel BN. Für zukünftige Vermessungen mit dem Clinometer sollte die Gesichtsmitte daher eher durch Hinzuziehen der Kinnmitte, als der Nasenachse zur Bestimmung des Ästhetikwinkels miteinbezogen werden. Weiterführend ist die softwaregestützte Gesichtsvermessungsmethode mit Primos body bezüglich der Messgenauigkeit dem Clinometer überlegen. Die vorliegende Dissertation kann somit ein neues bildgebendes Verfahren im Bereich der dreidimensionalen Gesichtsvermessung spe-ziell für das kieferorthopädische und kieferchirurgische Gebiet vorstellen, mit Hilfe jener zahlreiche Anwendungsmöglichkeiten in Diagnostik, Planung, Therapie und Nachsorge bestehen. Zusätzlich sollen die Ergebnisse Anstoß für weitere Forschungen im Bereich der dreidimensionalen Gesichtsvermessung sein um zukünftig invasive bildgebende Verfahren ersetzten zu können.
Um Wissen in einer Form abzulegen, in der es automatisiert verarbeitet werden kann, werden unter anderem Ontologien verwendet. Ontologien erlauben über einen als Inferenz bezeichneten Prozess die Ableitung neuen Wissens. Bei inhaltlichen Überschneidungen werden Ontologien über Ontologie-Alignments miteinander verbunden, die Entitäten aus den verschiedenen Ontologien in Beziehung zueinander setzen. Üblicherweise werden diese Alignments als Mengen von Äquivalenzen formuliert, die beschreiben, welche Konzepte aus einer Ontologie Konzepten aus einer anderen Ontologie entsprechen. Ebenfalls verbreitet sind Ober- und Unterklassenbeziehungen in Alignments.
Diese Ontologie-Alignments werden zum Beispiel in der Biomedizin in Forschungsdatenbanken verwendet, da durch Alignments Informationen aus verschiedenen Bereichen zusammengeführt werden können. Der manuelle Aufwand, um große Ontologien und Alignments zu erstellen, ist sehr hoch. Dementsprechend wäre es wünschenswert, bei einer Veränderung von Ontologien nicht wieder von vorne beginnen und eine neue Ontologie erstellen zu müssen und möglichst viel aus der veränderten Ontologie und den die Ontologie betreffenden Alignments wiederverwenden zu können. Daher sollten möglichst automatisierte Verfahren verwendet werden. Diese Arbeit untersucht vier Ansätze, um die Anpassung von Alignments an Veränderungen in Ontologien zu automatisieren.
Der erste Ansatz bezieht Inferenzen in den Prozess zur Vorhersage von Alignment-Änderungen mit ein. Dazu werden die Inferenzen vor und nach der Änderung der Ontologien berechnet und auf Basis der Unterschiede mit einem regelbasierten Algorithmus bestimmt, wie sich das Alignment ändern soll. Der zweite Ansatz, wie auch die weiteren Ansätze, hat nicht zum Ziel das Alignment direkt anzupassen. Stattdessen soll vorhergesagt werden, welche Teile des Alignments angepasst werden müssen. Dazu werden die Ontologien und das Alignment als Wissensgraph-Embeddings repräsentiert. Diese Embeddings bilden Knoten aus den Ontologien in einen Raum mit 300-1000 Dimensionen so ab, dass in dem Raum auch die Beziehungen zwischen den Entitäten der Ontologien repräsentiert werden können. Diese Embeddings werden dann verwendet, um verschiedene Klassifikationsalgorithmen zu trainieren. Auf diese Weise wird vorhergesagt, welche Teile des Alignments sich verändern werden. Der dritte Ansatz verbindet Embeddings mit einem Veränderungsmodell. Das Veränderungsmodell kategorisiert die an den Ontologien vorgenommenen Veränderungen. Auf diese Kategorisierung und das Embedding werden dann Klassifikationsalgorithmen angewandt. Der vierte Ansatz verwendet eine speziell auf Wissensgraphen ausgerichtete Architektur für neuronale Netze, sogenannte Graph Convolutional Networks, um Veränderungen an Alignments vorher zu sagen.
Diese Ansätze werden auf ihre jeweiligen Vor- und Nachteile untersucht. Dazu werden die Verfahren an zwei Anwendungsfällen untersucht. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen wird anhand eines Anwendungsbeispiels aus dem Bereich der Interweaving Systems betrachtet. In dem Beispiel wird eine allgemeine Methode für Interweaving Systems angewandt um das Selbstmanagement von Ampelsteuerungen zu ermöglichen. Die auf maschinellem Lernen aufbauenden Ansätze werden auf einem Auszug aus der biomedizinischen Forschungsdatenbank UMLS evaluiert.
Dabei konnte festgestellt werden, dass die betrachteten Ansätze grundsätzlich zur Anpassung von Alignments an Ontologie-Veränderungen eingesetzt werden können. Der Ansatz zur regelbasierten Einbeziehung von Inferenzen kann dabei vor allem auf sehr kleinen Datensätzen eingesetzt werden, bei denen alle Gesetzmäßigkeiten der Veränderungen grundsätzlich bekannt sind. Diese Anwendbarkeit ergibt sich aus dem Entwurf der Problemstellung für den ersten Ansatz. Die auf maschinellem Lernen aufbauenden Ansätze eignen sich besonders für große Datensätze und bieten den Vorteil, dass auch ohne ein vollständiges Verständnis des Veränderungsprozesses Vorhersagen getroffen werden können.
Unter den Ansätzen, die maschinelles Lernen einsetzen, zeigte die Einbeziehung von Veränderungsmodellen keine Vorteile gegenüber den anderen Ansätzen. Auf einem etwas
kleineren Datensatz waren die Ergebnisse des Embedding-basierten Ansatzes und der Relational Graph Convolutional Networks vergleichbar, während auf einem größeren Datensatz
die Graph Convolutional Networks etwas bessere Ergebnisse erreichen konnten.
Weitere Ergebnisse dieser Arbeit stellen eine Formalisierung der Problemstellung der Anpassung von Ontologie-Alignments an Veränderungen sowie eine formale Darstellung der Ansätze dar. Ein weiterer Beitrag der Arbeit ist die Vorstellung eines Anwendungsfalls aus dem Bereich der Interweaving Systems für Ontologie-Alignments. Außerdem wurde das Problem der Anpassung von Alignments an Veränderungen so formuliert, dass es mithilfe von
maschinellem Lernen betrachtet werden kann.
Es gibt zwei Leitmotive, die sich konsequent in der Rhetorik der Forschungsliteratur zu Anselm Kiefer beobachten lassen: zum einen die Auseinandersetzung des Künstlers mit dem Nationalsozialismus und in der Folge mit der nordisch-germanischen Mythologie und zum anderen die Beschäftigung mit dem Judentum und der jüdischen Mystik. Innerhalb des Gesamtoeuvres sind jedoch diejenigen Arbeiten, die sich augenscheinlich und sehr offensichtlich mit dem Nationalsozialismus beschäftigen nur eine sehr kleine Gruppe. In seiner 50 Jahre umfassenden künstlerischen Laufbahn hat er lediglich in den ersten Jahren eine offensive Auseinandersetzung mit der NS-Vergangenheit Deutschlands gesucht. Sie bildet gleichsam den Startpunkt seiner künstlerischen Karriere. Mittlerweile ist der Künstler Anselm Kiefer mit der Aufarbeitung des Nationalsozialismus und den Begrifflichkeiten Vergangenheitsbewältigung, Erinnerungsarbeit und Trauerarbeit kanonisiert. Doch je länger der Schaffensprozess von Kiefer andauert und je weiter man auf sein produktives Œuvre zurückblicken kann, umso deutlicher erkennt man nachweisbar zwei ganz andere bildimmanente Leitkategorien in diversen Facetten und Nuancen, die in ihrer Überordnung eine völlig neue Dimension einschlagen: die Dimension von Zeit und Raum respektive Zeitlichkeit und Räumlichkeit in Kiefers gesamtem Werkkomplex.
Insistent beschäftigt sich Kiefer mit allgemeingültigen Themen der Vergangenheit, Gegenwart und Zukunft oder diskutiert zeitlose und damit verbunden auch schwer zugängliche Inhalte. Zeitlos meint in diesem Fall, dass er sich nicht mehr mit den ihm vorher typischen Referenzen der Historie und Geschichte (wie eben dem Nationalsozialismus) beschäftigt, sondern vielmehr auch mit zeitlichen Dimensionen wie der kosmologischen, geologischen oder Lebens-Zeit. Zunehmens treten ab Mitte der achtziger Jahre Raumbezogene Kosmos- und Genesisthemen aus dem Alten Testament oder der Kabbala in den Mittelpunkt. Raum und Zeit als zwei Leitkategorien breiten sich wie eine Art Dach über Kiefers gesamtes Œuvre und über die üblichen ikonografischen Interpretationsmodelle aus. Sie werden von mir als alternative Lesart der Forschung empfohlen.
Jedes Bildwerk besitzt neben seiner räumlichen Gestalt und seinem kompositorischen Bildaufbau auch eine implizite Bildzeit. Beide Determinanten bedingen als Ordnungsraster nicht nur die jeweilige formale Bildgestalt, sondern auch den strukturellen Bildgehalt in Form eines zeitlich-räumlichen Ausdrucks. Raum und Zeit sind als normativ zu verstehen, im Sinne eines Standards, gleichsam als eine Regel, die grundsätzlich für die Annäherung und Interpretation der Kieferschen Arbeiten angewendet werden kann. Die Wahrnehmung von Raum und Zeit bei Kiefer kann gleichsam übergreifend in die folgenden drei Kategorien eingeteilt werden: 1.) die thematische Referenz auf die beiden Dimensionen, 2.) der tatsächlich motivische Bezug oder 3.) die faktische Umsetzung anhand der Dimension des Bildträgers oder der Entstehungszeit des Werkes. Raum und Zeit liegen zudem ganz grundsätzlich dem kosmologischen Weltentwurf zugrunde, da Alles in Zeit und Raum ist. Die beiden Dimensionen sind dem Kieferschen Sternenbild qua seiner Existenz daher schon anhaftig.
Kiefer hat in den Jahren 1995 bis 2010 eine beachtliche Anzahl an Sternenbildern geschaffen. Er fertigt die Bilder vor allem seriell an, so dass diese Fülle auf Basis diverser formaler Bildanlagen von mir in zwei Gruppen unterteilt wurde.
Die erste Gruppe folgt einer traditionellen Bildform, indem sie grundsätzlich den Bildträger kompositorisch in eine irdische und eine stellare räumliche Zone unterteilen. Der nächtliche Sternenhimmel breitet sich darin geschlossen über einer Landschaft oder einem Innenraum aus. Der Betrachter wird gleichsam von seinem irdischen Standpunkt aus auf den Blick gen Sternenhimmel gelenkt. Die Sternenbilder aus irdischer Perspektive versammeln philosophisches und literarisches Gedankengut der historischen Personen Immanuel Kant, Ingeborg Bachmann und Pierre Corneille. Die zweite Gruppe umfasst jene Arbeiten, die den irdischen Standpunkt verlassen und keine Horizontlinie mehr aufweisen. Bei diesen Arbeiten begreift Kiefer den Bildträger in seiner kompletten Dimensionalität als rein stellaren Bildraum. In den Werken wird als Konsequenz eine für Kiefers Sternenbilder neue bildräumliche Perspektive obligat.
Die Sternenbilder Kiefers fokussieren grundsätzlich kosmologische Fragestellungen, seien sie philosophisch, literaturwissenschaftlich, naturphilosophisch, naturwissenschaftlich oder religiös konnotiert. Damit folgen sie der Tradition vorangegangener Künstlergenerationen. In einem Einführungskapitel, welches für die Verortung Kiefers in die Tradition des Sternenbildes wichtig ist, wird aufgezeigt, dass das Bild der Sterne stets in enger Verbindung mit den eben genannten Disziplinen steht, durch diese maßgeblich beeinflusst wurde und weiterhin wird. Den Künstlern ist die Tatsache gemein, dass sie mit ihrer Darstellung des Sternenhimmels der Frage nach einer räumlichen und zeitlichen Ordnung der Welt, gleichsam als Kosmos verstanden, sowie ihrer Entstehungsursache und des „Bauplans“ nachgehen. Den Sternenbildern scheint gemein zu sein, dass sie realiter durch Beobachtungen, Erkenntnisse und Ergebnisse Wissensräume sichtbar machen, determinieren und das jeweilige Wissen transportieren.
Kiefers kosmologischer Diskurs verläuft in dem großen Bereich des Nicht-Wissens, mit dem Versuch einen ontologischen Sinn herzustellen. Die Arbeiten, die auf Kant referenzieren, auf Bachmann und auf Corneille zeugen von Kiefers kosmologischer Auseinandersetzung, seiner Frage nach Gott, seiner Verortung im Kosmos, seiner Beschäftigung mit dem Darstellbaren und Un-Darstellbaren und einer damit verbundenen Sinnsuche.
Abdominale Aortenaneurysmen sind in Industrienationen eine häufige Erkrankung der Personengruppe über 65 Jahre. Diese Dilatationen der abdominalen Aorta zeichnen sich durch eine lokale Inflammation aus, die mit der Infiltration von Immunzellen, dem Verlust von glatten vaskulären Muskelzellen und der Degeneration der extrazellulären Matrix einhergeht. Ursprünglich als Symptom einer Atherosklerose angesehen, sind die Ursachen dieser progressiv verlaufenden Erkrankung nach wie vor nicht vollständig verstanden; obwohl steigendes Alter, männliches Geschlecht, genetische Prädisposition, Rauchen und ein zuvor erlittener Myocardinfarkt als Risikofaktoren identifiziert werden konnten. Der lange Zeit asymptomatische Krankheitsverlauf, die Gefahr einer Ruptur mit häufig letalen Folgen und der Mangel einer effizienten pharmakologischen Therapie machen eine weitere Untersuchung dieser Erkrankung unabdingbar.
Diltiazem ist ein Inhibitor spannungssensitiver L Typ-Calciumkanäle, der seit über 25 Jahren zur Behandlung von arterieller Hypertonie, verschiedener Arrhythmien und Angina pectoris verwendet wird. Im Rahmen der vorliegenden Arbeit sollte untersucht werden, ob Diltiazem auch einen antianeurysmatischen Effekt besitzt. Eine vierwöchige subcutane Infusion des blutdrucksteigernden Hormons Angiotensin II führte nach vier Wochen zur Bildung abdominaler Aortenaneurysmen, sowie zu atherosklerotischen Gefäßveränderungen der thorakalen Aorta Apolipoprotein E (ApoE)-defizienter Mäuse. Eine parallele Therapie mit Diltiazem über das Trinkwasser konnte diese Entwicklung unabhängig vom arteriellen Blutdruck und damit unabhängig von der antihypertensiven Wirkung verhindern. Im Aortenbogen Diltiazem-behandelter Tiere konnte im Rahmen dieses in vivo-Modells nach sechs Tagen eine deutlich geringere lokale Expression proinflammatorischer Cytokine, wie Tumornekrosefaktor-a, Interleukin-1ß (IL1B) und Interleukin-6 (IL6), Chemokine, wie CCL2, und degenerativer Proteasen, wie der Matrix-Metalloprotease 9 (MMP9), festgestellt werden. Dies war die Folge einer reduzierten Anzahl von Macrophagen in der Gefäßwand. Zirkulierende proinflammatorische Cytokine, wie CCL12, konnten im Serum teilweise ebenfalls vermindert nachgewiesen werden.
Obwohl die antihypertensive Wirkung von Diltiazem in glatten vaskulären Muskelzellen vermittelt wird, war es nicht möglich, die Angiotensin II-induzierte Produktion von promigratorischem CCL2 und proinflammatorischem IL6 in isolierten Aortenringen ApoE-defizienter Mäuse oder in glatten vaskulären Muskelzellen der Ratte zu reduzieren. Diltiazem war zudem nicht in der Lage, die CCL2-induzierte Migration proinflammatorischer Ly6C+-Monocyten in vivo zu unterbinden. In isolierten peritonealen Macrophagen ApoE-defizienter Mäuse dagegen, konnte die IL6 induzierte Expression von IL1B- und CCL12-mRNA durch eine Inkubation mit Diltiazem verhindert werden. In der RAW264.7-Zelllinie, die morphologische und funktionelle Merkmale von Monocyten und Macrophagen aufweist, konnte die Dilitiazem-sensitive IL6-induzierte Expression von IL1B-mRNA in vitro ebenfalls nachgewiesen werden. Eine Stimulation mit IL6 war in diesen Zellen jedoch nicht ausreichend, um die Sekretion von IL1B-Protein auszulösen.
Thorakales Aortengewebe wies im Vergleich mit RAW264.7-Zellen eine veränderte Ausstattung spannungssensitiver Calciumkanäle auf. In letzteren fanden sich keine muskelzellspezifischen L-Typ-Calciumkanäle (CACNA1C), aber eine relevante Expression neuronaler P/Q-Typ-Calciumkanäle (CACNA1A). Mittels fluorimetrischer Bestimmung mit Fura-2AM konnte jedoch festgestellt werden, dass die intrazelluläre Calciumkonzentration Diltiazem-behandelter RAW264.7-Zellen unverändert war und der antiinflammatorische Effekt somit calciumunabhängig vermittelt wurde.
Diltiazem war nicht in der Lage, eine Lipopolysaccharid (LPS)-bedingte Inflammation in RAW264.7-Zellen zu unterbinden. Weder die LPS-induzierte Sekretion von IL1B Protein, noch die nucleäre Translokation des Transkriptionsfaktors NF-?B oder die Aktivierung des NF-?B-Promotors konnten durch eine Inkubation der Zellen mit Diltiazem verhindert werden. Diltiazem reduzierte jedoch, die IL6-induzierte Aktivierung des AP 1-Promotors unabhängig von der MAPK1-Phosphorylierung oder der Phosphorylierung und nucleären Translokation des Transkriptionsfaktors STAT3 zu unterbinden. Eine Unterdrückung von c-Jun N-terminale Kinase JNK- oder p38 Proteinkinase-vermittelten Signalwegen ist damit wahrscheinlich.
Das Pirinixinsäurederivat LP105 ist ein neuer Inhibitor der Arachidonat-5-Lipoxygenase (LOX5), der im Rahmen dieser Arbeit erstmals in vivo auf seine antianeurysmatischen Eigenschaften hin untersucht wurde. LOX5 katalysiert die Reaktion von Arachidonsäure zu Leukotrien A4 und kontrolliert damit einen wichtigen Schritt in der Synthese proinflammatorischer Leukotriene. LP105 war im Tiermodell nicht in der Lage die Angiotensin II-induzierte Bildung abdominaler Aortenaneurysmen in ApoE-defizienten Mäusen komplett zu unterbinden, führte aber über die Reduktion der vaskulären Inflammation zu einer deutlich verringerten Krankheitslast. LP105 selbst beeinflusste die mRNA-Expression verschiedener Enzyme des Arachidonsäuremetabolismus nicht, verstärkte jedoch durch die Blockade von LOX5 die Metabolisierung von Arachidonsäure über Arachidonat-15-Lipoxygenase und Cytochrom P450-Enzyme.
1. Hintergrund und Ziel der Studie: Bei der Thrombolysetherapie des akuten ischämischen Schlaganfalls ist die Dosierung des Thrombolytikums strikt an das Körpergewicht des Patienten gebunden. Dies ist notwendig um die Effektivität der Therapie zu gewährleisten und um das Auftreten von Blutungskomplikationen weitestgehend zu verhindern. Aufgrund unterschiedlichster Faktoren, wie beispielsweise Einschränkungen des Bewusstseinszustands, oder aber Aphasie und Dysarthrie, sind viele potentielle Lyse-Patienten jedoch nicht in der Lage, ihr Körpergewicht dem behandelnden Arzt mitzuteilen. In vielen Fällen fehlen in der Akutsituation die Zeit, sowie die entsprechenden technischen Möglichkeiten, insbesondere bettlägerige Patienten zu wiegen. Folglich wird das Körpergewicht oftmals vom Arzt nach Augenmaß abgeschätzt, was erwiesenermaßen mit Ungenauigkeiten verbunden ist. Ziel der Studie war es, Approximationsmethoden zu entwickeln, die das Körpergewicht des Patienten anhand einfach erhältlicher anthropometrischer Maße zuverlässig zu bestimmen vermögen. 2. Methoden: Auf Grundlage anthropometrischer Daten einer bevölkerungsbasierten Population von 6.954 erwachsenen Probanden wurden, mittels linearer Regression, Approximationsformeln zur Abschätzung des Körpergewichts erstellt. Diese Formeln beinhalteten die Parameter „Körpergröße“, „Bauchumfang“ und „Hüftumfang“, sowie teilweise das Lebensalter der Person. Die verwendeten Parameter stellten allesamt unabhängige Prädiktoren des Körpergewichts dar. Die geschlechtsspezifischen Formeln wurden anschließend anhand einer unabhängigen Gruppe von 178 Patienten (90 Männer, 88 Frauen, Durchschnittsalter: 67,3 Jahre [±15,6 Jahre]) validiert. Einschlusskriterium war hierbei die Verdachtsdiagnose eines Schlaganfalls bei einer notfälligen stationären Aufnahme in die neurologischen Klinik des Klinikums der Johann-Wolfgang Goethe Universität Frankfurt am Main im Zeitraum April bis August 2006. Unter Verwendung des Goldstandards „Wiegung“, wurde die Genauigkeit der anthropometrischen Gewichtsapproximationen mit der Genauigkeit von jeweils zwei unabhängigen visuellen Schätzungen von in der Schlaganfall-Thrombolyse erfahrenen Ärzten verglichen. Für die klinische Nutzung wurden Approximationshilfen (ein Internet-Rechner und Nomogramme) entwickelt, die den Gebrauch der anthropometrischen Approximationsformeln erleichtern sollen. 3. Ergebnisse: Unter Verwendung der anthropometrischen Approximationsformeln konnten genauere Abschätzungen des wahren Körpergewichts erzielt werden, als durch rein visuelle Schätzung. Für die einfachsten und gleichzeitig genauesten Approximationsformeln (Approximationsmodell 1) betrug die durchschnittliche absolute Abweichung vom gewogenem Körpergewicht 3,1 kg (± 2,6 kg). Die Formeln waren somit signifikant genauer als die beiden Schätzungen durch Ärzte (Schätzung 1: 6,5 kg [± 5,2 kg], Schätzung 2: 7,4 kg [± 5,7 kg]; p < 0,001 für die Genauigkeitsvergleiche zwischen der jeweiligen Schätzung und der Approximation). Die Verwendung der Approximationsformeln reduzierte den Anteil aller Schätzungen, die mehr als 10% vom wahren Körpergewicht abwichen, von 31,5% (Schätzung 1) bzw. 40,4% (Schätzung 2) auf 6,2% (Approximationsmodell 1). In lediglich einem Fall (0,6%) wich das approximierte Gewicht mehr als 20% vom wahren Körpergewicht ab, wohingegen dies in 4,6% (Schätzung 1), respektive 8,5% (Schätzung 2) der Fälle für die Schätzungen zutraf. Die Benutzung der auf den Approximationsformeln basierenden Nomogramme führte zu keiner relevanten Verschlechterung der Schätzgenauigkeit (durchschnittliche absolute Abweichung vom gewogenen Körpergewicht 3,11 kg [± 2,69 kg], Anteil der Fehlschätzungen > 10% des Körpergewichts: 7,3%). Mit einer durchschnittlichen absoluten Abweichung vom wahren Körpergewicht von 2,7 kg (± 2,4 kg) und einem Anteil von 3,4% der Gewichtsschätzungen mit einer Abweichung von mehr als 10% vom wahren Gewicht, waren lediglich die Gewichtsangaben der Patienten selbst genauer als die anthropometrischen Approximationen. Die Messung der anthropometrischen Parameter dauerte durchschnittlich 99,5 Sekunden (± 36,7 s), für die Berechnung des Körpergewichts mittels Nomogramm wurden im Durchschnitt 56,7 Sekunden (± 15,3 s) benötigt. Die Übereinstimmung der Messergebnisse zwischen verschiedenen Untersuchern war hoch (Intraclass correlation Coefficients [ICC] für Körperlänge: 0,9978 [95% Konfidenzintervall 0,9954 - 0,9991], ICC für Bauchumfang: 0,9891 [0,9771 - 0,9953], ICC für Hüftumfang: 0,9921 [0,9836 - 0,9966]). 4. Schlussfolgerung: Durch die Verwendung von Approximationsformeln, basierend auf einfach bestimmbaren anthropometrischen Messgrößen (Körperlänge, Bauch- und Hüftumfang) ist es möglich, innerhalb kurzer Zeit eine relativ genaue Abschätzung des Körpergewichts von Schlaganfallpatienten zu erhalten. In Situationen, in denen das Körpergewicht des Patienten nicht umgehend erfragbar oder durch Wiegung bestimmbar ist, kann die vorgeschlagene Approximationsmethode helfen, grobe Schätzfehler und in der Folge Dosierungsfehler bei dosiskritischen Medikamenten zu minimieren.
Zwei flavonoidhaltige Pflanzenextrakte, der neuartige Extrakt WS1261, sowie der standardisierte Ginkgo biloba L.-Extrakt EGb761 wurden auf antidepressive Wirkungsmechanismen untersucht, zusätzlich als chemisch definierte Einzelsubstanz das in beiden enthaltene Flavonoid Isorhamnetin. Methodisch wurden hierzu Effekte auf Transporter und Enzyme des Monoaminstoffwechsels, depressionsrelevante Stresshormone neurotrophe Eigenschaften untersucht.
WS1261 hemmte in höheren Konzentrationen in vitro die (Wieder-) Aufnahmetransportmechanismen von NA und 5-HT. Ex vivo war ein Effekt auf die Aufnahme von NA und 5-HT weder nach 1 h, noch 4 h nach Akutbehandlungen zu sehen, sondern erst nach (14-taegiger) subchronischer Behandlung, und dann auch nur Ufer 5-HT zu messen. Nach subchronischer Behandlung konnte eine ebenfalls in vitro festgestellte Hemmung der MAO-A durch WS1261 ebenfalls ex vivo gezeigt werden.
EGb761 hemmte in vitro die Wiederaufnahme von NA, 5-HT und DA. Ex vivo war dieser Effekt weder 1 h, noch 4 h nach einer Akutgabe, allerdings nach 14-taegiger Dauerbehandlung im Bezug auf eine Hemmung der NA-Aufnahme messbar, ohne dass MAO-A oder MAO-B-Aktivitaet beeinflusst wurden.
WS1261 erhoehte nach 14-taegiger Behandlung konzentrationsabhaengig die Plasma-Corticosteronspiegel. WS1261 war in der Lage, die Ausdifferenzierung von PC12-Zellen konzentrationsabhaengig zu fördern, wodurch auf eine Wirkung ähnlich dem neurotrophen Wachstumsfaktor NGF geschlossen werden kann. Die Konzentration des Wachstumsfaktor BDNF wurde in zwei relevanten Hirnregionen durch WS1261 nicht, in einer jedoch durch Isorhamnetin allein erhoeht.
Zusammengefasst ergaben sich Hinweise darauf, dass eine mögliche antidepressive Wirkung von WS1261 durch eine Wirkung auf eine Beeinflussung des Monoaminstoffwechsels, oder die Erhöhung depressionsrelevanter Stresshormonlevel erklärbar sein koennte, insbesondere nach subchronischer Behandlung. Es ergaben sich ausserdem Hinweise auf wachstumsfaktoraehnliche Wirkungsweisen. Eine Wirkung ueber eine Erhšhung zentraler BDNF-Konzentrationen konnte durch die vorliegende Untersuchung im Beobachtungszeitrum nicht festgestellt werden.
Die literaturbekannte kognitionsverbessernde Wirkung des Ginkgo biloba-Extraktes EGb761 koennte erklärbar sein durch eine nach subchronischer Behandlung feststellbare Hemmung des Noradrenalintransporters NET, da im frontalen Cortex vor allem ueber diesen die synaptische Elimination des hier mit Aufmerksamkeit und Lernprozessen im Zusammenhang stehenden Neurotransmitters Dopamin erfolgt.
Das in beiden Extrakten enthaltene Flavonoid Isorhamnetin kann hšchstens mit einem Teil dieser festgestellten Effekte in Verbindung stehen, da die Extrakte sich in ihrer Wirkungsweise unterschieden, und Isorhamnetin alleine teilweise andere Effekte zeigte, als die isorhamnetinhaltigen Extrakte WS1261 und EGb761. Dies koennte jedoch auch durch die unterschiedlichen in den Extrakten enthaltenen Mengen erklärbar sein.
Die Motivation dieser Arbeit lag in der Formulierungsentwicklung eines nanopartikulären Systems auf Basis von Poly(D,L Milch-co-Glykolsäure) (PLGA) zum Transport eines antiangiogenen Antikörpers zur spezifischen Anreicherung in malignen Tumoren. Durch das partikuläre System soll eine optimierte Therapie mit erhöhten pharmazeutischen Wirkkonzentrationen am Wirkort bei gleichzeitig reduzierten Nebenwirkungen erreicht werden. In der Literatur wurden schon mehrfach unterschiedliche Herstellungsmethoden sowie diverse Untersuchungen der PLGA-Nanopartikel (NP) beschrieben. Dennoch fehlen bisher von Antikörperbeladenen PLGA-NP zur Tumortherapie systematische Untersuchungen der Herstellung, der Charakterisierung physikochemischer Eigenschaften, der Lagerstabilität und der Wirkung in biologischen Systemen. Diese Untersuchungen wurden in dieser Arbeit durchgeführt und die Ergebnisse in vier Teilbereiche gegliedert. Im ersten Teilbereich wurde die Herstellung und Charakterisierung der PLGA-NP etabliert. Dabei wurde zunächst der Einfluss unterschiedlicher Herstellungsparameter und Formulierungen auf unbeladene und Proteinbeladene PLGA-NP untersucht. Charakterisiert wurden die Nanopartikel anhand der Partikelgröße und Polydispersität, dem Zetapotential und den bildgebenden Verfahren TEM und SEM. Neben der Reproduzierbarkeit der physikochemischen Eigenschaften ist für die Entwicklung nanopartikulärer Systeme die exakte Bestimmung der Einbettungseffizienz hochpotenter Proteine von größter Bedeutung. Da an dieser Stelle keine normierten Methoden zur Verfügung standen, wurden drei Bestimmungsmethoden bewertet und die Einbettungseffizienzen untersucht. Im zweiten Teilbereich wurden die Lyophilisation und die Lagerstabilität der PLGA-NP untersucht. Um die kritischen Faktoren wie Partikelgröße und Partikelgrößenverteilung bis zur Applikation gewährleisten zu können, wurde die Lyophilisation der entwickelten PLGA-NP anhand unterschiedlicher Kriterien analysiert. Die Stabilität des erhaltenen Lyophilisats wurde durch eine anschließende Lagerstabilitätsstudie bei unterschiedlichen Klimabedingungen bewertet. Die Charakterisierung der Partikelgrößen und Partikelgrößenverteilungen mittels PCS, AUZ und TEM der PLGA-NP in Gegenwart unterschiedlicher Stabilisatoren erfolgte vor und nach der Lyophilisation sowie nach 4, 8 und 13 Wochen Lagerung bei Klimabedingungen von 4°C, 25°C/60rF und 40°C/75rF. Im dritten Teilbereich der Arbeit werden Ergebnisse zum Freisetzungsverhalten der Proteine aus den PLGA-NP dargestellt. Für die kontrollierte Freigabe der Proteine aus den Nanopartikeln spielt der Abbaumechanismus der Partikel und damit des Polymers eine bedeutende Rolle. Das Abbauverhalten der PLGA-NP wurde daher zunächst über die Veränderung der Partikelgröße und Partikelgrößenverteilung mittels PCS und AUZ untersucht. Dafür wurden PLGA-NP unterschiedlichster Formulierungen bis zu 100 Tage beobachtet und analysiert. Ein wichtiges Ziel dieser nanopartikulären Systeme ist die Freisetzung des Antikörpers über die gewünschte Zeit, damit eine pharmakologische Wirkung erzielt werden kann. Dafür wurden ebenso PLGA-NP unterschiedlichster Formulierungen in einem geeigneten Freisetzungsmedium mittels verschiedener Freisetzungsmodelle und analytischer Methoden untersucht. Neben unterschiedlichen Proteinen wurde auch der Proteinzustand, das Polymer sowie der Zusatz von Hilfsstoffen variiert. Im letzten Teil der Arbeit wurde die biologische Wirkung der Antikörperbeladenen PLGA-NP in Zellkulturversuchen ermittelt. Die Nanopartikel wurden hier auf ihren antiangiogenen Effekt mittels „Attachment- und Detachment-Assay“ sowie auf zellspezifische Bindung und Zellaufnahme mittels FACS und CLSM untersucht. Des Weiteren wurde ein präklinischer Transwell-Versuch entwickelt, um einen biologischen Nachweis des „sustained release“-Effektes der PLGA-NP zu erbringen. Auf Basis dieser Arbeit und der Erkenntnisse vorangegangener Studien scheint es möglich, gut charakterisierte Antikörper-beladene PLGA-NP zur Tumortherapie mit einer pharmakologischen Wirkung zu etablieren und für weiterführende präklinische Untersuchungen einzusetzen.
Bei dieser Studie wurde die antivirale Effektivität, sowie die Verträglichkeit von einem selektiven NS3/4A Protease-Inhibitor als Monotherapie und in Kombination mit Peginterferon alfa-2a über einen Behandlungszeitraum von 14 Tagen evaluiert. Bezüglich der Hepatitis unvorbehandelte Patienten mit einer Genotyp 1 Infektion wurden in unterschiedliche Therapiearme randomisiert: (i) Placebo und Peginterferon alfa-2a (n=4), (ii) Telaprevir Monotherapie (n=8) oder (iii) Telaprevir in Kombination mit Peginterferon alfa-2a (n=8). Telaprevir wurde in oraler Tablettenform mit jeweils 750 mg alle 8 Stunden verabreicht und Peginterferon alfa-2a wurde einmal wöchentlich 180 μg subkutan injiziert. Bei der Studie zeigte sich ein medianer Abfall der HCV RNA von Beginn der Therapie bis zu letztem Behandlungstag 15 von -1.09 log10 (Bereich: -2.08 log10 und -0.46 log10) in der Placebo und Peginterferon alfa-2a-Gruppe; -3.99-log10 (Bereich: -5.28 und -1.26) in der Telaprevir-Gruppe, und -5.49-log10 (Bereich: -6.54 und -4.30) in der Kombinations- Gruppe mit Telaprevir plus Peginterferon alfa-2a. Bei 4 Patienten, die mit Telaprevir und Peginterferon alfa-2a behandelt wurden, war die HCV RNA an Tag 15 nicht mehr nachweisbar und bei einem Patienten, der initial mit Telaprevir behandelt wurde. Insgesamt kam es unter der Therapie zu keinem viralen Durchbruch unter der Kombination mit Telaprevir und Peginterferon alfa-2a während der 14-tägigen Behandlung innerhalb der Studie. Die meisten Nebenwirkungen waren von milder Intensität und es kam zu keinen schwerwiegenden Nebenwirkungen oder vorzeitigen Therapieabbrüchen. Die Studie zeigte eine potente antivirale Wirksamkeit von Telaprevir als Monotherapie und bei der Kombination mit Peginterferon alfa-2a kam es zu einer gesteigerten antiviralen Aktivität. Bereits aufgrund dieser Ergebnisse initiierte, größere Studien werden nun evaluieren, ob Telaprevir in Kombination mit Peginterferon alfa und Ribavirin die dauerhaften antiviralen Ansprechraten verbessern kann.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Es wurde das Leitfähigkeitsverhalten von reinem, lufthaltigem Wasser bei kontinuierlicher und impulsgetasteter Röntgenbestrahlung (60 kV8) untersucht. Hierbei ergaben sich zwei einander überlagerte Effekte: 1. Ein der Röntgen-Dosisleistung proportionaler irreversibler Leitfähigkeitsanstieg, der vermutlich auf eine Strahlenreaktion des gelösten CO2 zurückzuführen ist, 2. eine reversible Leitfähigkeitserhöhung während der Bestrahlung, die sich mit der Entstehung einer Ionenart mit einer mittleren Lebensdauer von ca. 0,15 sec erklären läßt. Es wird angenommen, daß es sich dabei um Radikalionen O2⊖ handelt, welche durch die Reaktion der als Strahlungsprodukt entstehenden Η-Radikale mit dem gelösten Sauerstoff gebildet werden. Ein möglicher chemischer Reaktionsmechanismus wird angegeben, der zu befriedigender quantitativer Übereinstimmung der Versuchsergebnisse mit Ausbeutewerten und Reaktionskonstanten aus der Literatur führt.
Im Rahmen dieser Arbeit wurden verschiedene Apolipoproteine des Liquors untersucht, um bestehende Zusammenhänge nachzuweisen, die eventuell später bei der Diagnose von Erkrankungen eingesetzt werden könnten. Das ApoE aller Proben wurde phänotypisiert. Die Konzentrationen des ApoJ und Apo(a) wurden mit Hilfe selbst- bzw. in der Arbeitsgruppe entwickelter ELISAs bestimmt. Durch Kombination der existierenden ELISAs konnte der von Borghini et al. 1995 beschriebene LpE-Partikel und ein bisher nicht bekannter Apolipoprotein-Partikel aus Apo(a) und ApoE nachgewiesen werden. Die relative Konzentration dieses Apo(a)/E- und des ApoJ/E-Partikels wurde bestimmt. Mit Hilfe der Kreuzimmunelektrophorese konnte nachgewiesen werden, daß die Apolipoproteine Bestandteil eines Partikels sind. Aufgrund der gefundenen Informationen wurde die These postuliert, daß es sich bei diesen Partikeln um einen gemeinsamen Partikel aus ApoE, ApoJ und Apo(a) handelt. Detaillierte Daten über den Aufbau und die Zusammensetzung des Partikels konnten bisher nicht gewonnen werden. Im Liquor wurden die Konzentrationen von ApoE, Apo(a) und ApoJ gemessen. Diese Konzentrationen wurden in Zusammenhang zu dem ApoE-Phänotyp der entsprechenden Probe gesetzt. Wo möglich wurde ApoE und Apo(a) auch im Serum der entsprechenden Patienten bestimmt. Auch diese Konzentrationen wurden in Beziehung zu ihrem ApoE-Phänotyp gesetzt. Zuletzt wurden für die Apolipoproteine E und (a) die Liquor- und Serumkonzentration in Beziehung zueinander gesetzt. Außer für das ApoE und den ApoJ/E-Partikel konnte für keines der untersuchten Apolipoproteine weder im Liquor noch im Serum ein offensichtlicher Zusammenhang zwischen der Konzentration des Apolipoproteins und dem ApoE-Phänotyp gefunden werden. Zusätzlich zu den Apolipoproteinen des Liquors wurde in Zusammenarbeit mit der Universität Dresden das Tau-Protein gemessen. Die Ergebnisse bestätigen die diagnostische Wertigkeit der Bestimmung von Protein Tau bei degenerativen Erkrankungen des ZNS. Eine Differenzierung zwischen verschiedenen degenerativen Erkrankungen des ZNS ist jedoch nicht möglich. Ein weiterer Teil dieser Arbeit untersuchte die Rolle des ApoE im Gehirn. Dabei zeigte sich, daß die Synthese des ApoE durch die Astrozyten ein sehr komplexer Vorgang sein muß. Eine weitere Untersuchung des ApoE wies die stärkere Glykolisierung im Liquor im Vergleich zum Serum nach.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine "Schutzfunktion" vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste. Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
In der so umfangreichen wie differenzierten Bruegelforschung dominieren religiöse und moralische Deutungen, die auf eine pessimistische Weltsicht des Künstlers schließen. Dem gegenüber priorisiert die vorliegende Arbeit säkulare und materielle Optionen, die einer optimistischen Weltsicht den Boden bereiten konnten. Diese ambitionierte Akzentsetzung ist anhand des zeitgenössischen Kontexts prinzipiell legitimiert und anhand von Bildbelegen praktisch veranschaulicht.
Eine konkretisierte kunstgeschichtliche Positionsbestimmung Bruegels seine systematische Abgrenzung von der romanistischen Konkurrenz ebenso heraus wie den originären Beitrag zur Weiterentwicklung der nicht-romanistischen Malerei seiner Zeit. Für seine innovativen Bildkonzepte gibt es einen gemeinsamen Nenner. Das ist die erweiterte Einbeziehung des Betrachters, der vom passiven Rezipienten zum aktiven Interpreten aufgewertet ist, nicht zuletzt mit dem Ziel, zeitgenössische Wirklichkeit und deren Widersprüche, Defizite und Alternativen diskutierbar zu machen.
Eine modifizierte sozialgeschichtliche Positionsbestimmung Bruegels geht vom Doppelcharakter der zeitgenössischen Transformationsprozesse in den spanischen Niederlanden aus. In der Regel rückt man religiöse Kontroversen und politische Konflikte in den Vordergrund, die destruktiven Potenziale des gesellschaftlichen Wandels und deren Wiederspiegelung im Bruegelwerk. Danach wird der Künstler tendenziell als religiöser Dissident und politischer Opponent qualifiziert. Stattdessen wird hier die ökonomische Expansion, die wirtschaftliche Dynamik als vorrangig angesehen, welche die Heimat Bruegels, die Metropole Antwerpen und ihr Umland, zu einer europäischen Vorsprungsregion werden ließ. Das lenkt den Blick auf die Reflexion des sozialökonomischen Kontexts im Bruegel-Oeuvre, die der Entwicklung der gesellschaftlichen Produktivkraft und die Rolle nicht nur der agrarischen Arbeit erkennbar werden lässt.
Damit ist der Boden bereitet für die Frage nach säkularer Kritik und sozialer Utopie in den Gemälden, denen die beiden folgenden Hauptteile der Arbeit gewidmet sind, dem „Sturz des Ikarus“ (Teil B) und dem „Turmbau zu Babel“ (Teil C). Beide Kapitel setzten sich intensiv mit Referenztexten und Referenzbildern sowie mit der Rezeptionsgeschichte auseinander und münden jeweils in den Entwurf einer konkurrierenden Deutung zu den traditionellen Thesen von der Bestrafung menschlicher Hybris ein:
Die konkurrierende Deutung des „Ikarussturzes“ kommt zu dem Ergebnis, dass die sozialgeschichtliche Substanz des Gemäldes in der Überbietung antiker durch frühneuzeitliche Arbeits- und Verkehrsformen zu entdecken ist. Eine latente sozialutopische Perspektive klingt in den dabei imaginierten Indizien für Arbeits- und Techniklob an.
Die konkurrierende Deutung der Turmbaugemälde gipfelt in dem Vorschlag, die sozialutopischen Potenziale aus dem Übergang vom „Wiener Turmbau“ zum Rotterdamer Turmbau“ abzuleiten. Sie kommt zu dem Ergebnis, dass die Bruegelsche Turmbau-Folge die Entwicklung einer Arbeitsutopie und einer Architekturutopie sowie deren Zusammenfassung zu einer Gesellschaftsutopie vorstellbar macht. Dabei ist der Optimismus keineswegs ungebrochen, das Konstrukt nicht frei von Skepsis, weil Bedrohungen des Projekts von innen und außen Teil des Bildgeschehens sind.
Die vorgelegte Arbeit setzt sich aus drei Veröffentlichungsstücken zusammen. Im ersten Teil zeigten Michalczyk und Hasselhorn (2010) einen Überblick über die Vielfalt der Modellvorstellungen des Arbeitsgedächtnisses. Dabei wurde insbesondere das Baddeley Modell (1986) hervorgehoben. Dieses steht für eine ganze Klasse komponentenbasierter, meist dem experimentellen oder dem Ansatz interindividueller Differenzen zugehöriger, Modellvorstellungen und ist zudem maßgeblich im pädagogischentwicklungspsychologischen Kontext für Theorie und Praxis von Bedeutung. Die Ergebnisse der ersten empirischen Vertiefung der hier vorgelegten Arbeit bestätigten die Gültigkeit der Dreikomponentenstruktur (Baddeley, 1986) und deren weitestgehende Altersinvarianz hinsichtlich der funktionalen Interdependenz der Komponenten phonologische Schleife, visuell-räumlicher Notizblock und zentrale Exekutive im Laufe der kindlichen Entwicklung. Lediglich bei Kindern jünger als 7 Jahre war der Zusammenhang der phonologischen Schleife und der zentralen Exekutive weniger stark ausgeprägt als bei älteren Kindern. In der zweiten empirischen Untersuchung wurden Subkapazitäten des Arbeitsgedächtnisses und die phonologische Bewusstheit zur Entwicklung früher numerischer Kompetenzen (Krajewski, 2008; Krajewski & Schneider 2009a,b) in Beziehung gesetzt. Es zeigte sich, dass die phonologische Bewusstheit auf die phonologische Schleife, den episodischen Puffer und phonologische, zentral-exekutive Prozesse zurückgreift. Zudem beeinflusste die phonologische Bewusstheit frühe numerische Basisfertigkeiten (QNC Level I), nicht aber (höhere) Mengen-Zahlen Kompetenzen (QNC Level II), was die „isolated number words“-Hypothese (Krajewski & Schneider, 2009a) bestätigte. Diese Zusammenhangsmuster, bei denen die phonologische Bewusstheit eine mediierende Rolle zwischen Arbeitsgedächtnissubkapazitäten und frühen numerischen Kompetenzen einnimmt, galten gleichermaßen für Kinder mit und ohne sprachlichem Migrationshintergrund.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Ziel der durchgeführten Experimente war es, die Zerfallsmechanismen Van-der-Waals gebundener Argon- und Neon Di- und Trimere in intensiven Laserfeldern zu untersuchen, um mehr über den Einfluss der schwachen Van-der-Waals Bindung auf die Dynamik des Ionisationsprozesses zu erfahren. Da Dimere aufgrund ihrer elektronischen Struktur sehr stark zwei separaten benachbarten Atomen gleichen, vereinen sie atomare und molekulare Eigenschaften in sich und ihre Untersuchung verspricht ein tieferes Verständnis der Wechselwirkungsmechanismen in starken Laserfeldern. Die Verwendung der Impulsspektroskopie Methode COLTRIMS ermöglichte die koinzidente Messung aller beim Aufbruch entstandener ionischer Fragmente sowie eines elektronischen Impulsvektors. Für die beidseitige Einfachionisation des Argon Dimers, konnten bei der gewählten Intensität (etwa 3.3E14W/cm2) drei unterschiedliche Ionisationsprozesse identifiziert werden, von denen zwei zu einer überraschend hohen kinetischen Gesamtenergie der Ionen führen. Aufgrund der Messung der Winkelverteilung der ionischen Fragmente und eines der emittierten Elektronen für lineare und zirkulare Polarisation gelang es, die den drei Prozessen zugrunde liegende Dynamik im Laserfeld zu entschlüsseln. Der dominierende Zerfallskanal stellt demzufolge eine schnelle sequentielle Doppelionisation des Argon Dimers dar, die noch am Gleichgewichtsabstand des Dimers stattfindet. Für den zweithäufigsten Ionisationsprozess ergaben sich zwei mögliche Erklärungsansätze: Entweder wird das Dimer zunächst einseitig doppelionisiert, so dass es auf einer attraktiven Potentialkurve zusammenläuft, bevor es zu einem späteren Zeitpunkt – wenn das Laserfeld bereits abgeklungen ist – durch eine Umverteilung seiner Ladungen in einer Coulomb Explosion fragmentiert, oder das Dimer wird bei einer beidseitigen Tunnelionisation zugleich angeregt, so dass die Coulomb Explosion von einer Potentialkurve erfolgt, die wesentlich steiler als 1/R verläuft. Der schwächste Zerfallskanal, der sich durch die höchste Gesamtenergie auszeichnet, ist auf eine "Frustrated Triple Tunnel Ionization" zurückzuführen, bei der ein hoch angeregter Rydberg Zustand erzeugt wird. Bei der Untersuchung des Neon Dimers konnte bei der gewählten Intensität (etwa 6.3E14W/cm2) nur die sequentielle beidseitige Einfachionisation identifiziert werden, obwohl die Daten Hinweise auf einen weitern Ionisationsprozess mit sehr geringer Statistik aufweisen. Zudem wurde in dieser Arbeit nach der Methode des Coulomb-Explosion-Imaging aus den in Koinzidenz gemessenen Impulsvektoren aller einfachgeladenen ionischen Fragmente eines Aufbruchs die geometrische Struktur der Cluster im Orts-und Impulsraum rekonstruiert. Die ermittelte Grundzustandswellenfunktion des Argon und Neon Dimers zeigt eine gute Übereinstimmung mit quantenmechanischen Berechnungen. Für das Argon und Neon Trimer konnten aus den gemessenen Impulsvektoren mittels einer numerischen Simulation die Bindungswinkel im Ortsraum bestimmt werden, so dass erstmals gezeigt werden konnte, dass diese Trimere gleichseitige Dreieckskonfigurationen aufweisen. Vergleiche mit theoretischen Berechnungen zeigen für die breite Winkelverteilung des Neon Trimers eine hervorragende Übereinstimmung, während die gemessene Winkelverteilung des Argon Trimers etwas breiter als die berechnete ist.
Einführung: Die höchste Offenheitsrate in der arteriellen Bypasschirurgie der unteren Extremitäten wird mit einem Segment der Vena saphena magna (VSM) von ausreichender Länge und Durchmesser erreicht. Dabei ist der Venendurchmesser der einzige signifikant korrelierende Faktor für das Auftreten einer Transplantatsstenose und damit der beste Prädiktor für die primäre und die sekundäre 2-Jahre-Durchgängigkeitsrates. In 20-40% der Patienten fehlt ein bzgl. des Lumens geeignetes Segment der Vena saphena magna zur Herstellung eines Bypasses bei der primären Operation. Daher wurde eine Technik entwickelt, kleinlumige Vena saphena magna Segmente mittels einer Valvulotomie zu erweitern.
Ziel: Eine zu kleinlumige Vena saphena magna soll VSM für eine spätere Verwendung als autologes Bypassmaterial der unteren Extremität konditioniert werden. Die häufigsten Indikationen für eine derartige Konditionierung sind die Bypassverwendung bei der operativen Therapie der peripheren arteriellen Verschlusskrankheit (pAVK) und beim Aneurysma der Arteria poplitea (PA).
Methoden: Diese prospektive Pilotstudie würde zwischen Juni 2007 und November 2011 durchgeführt. 25 Patienten (26 Fälle) mit einem VSM Durchmesser zwischen 2 und 3mm erhielten eine in situ VSM-Valvulotomie. Die Zerstörung der suffizienten Venenklappen ermöglicht einen retrograden Blutstrom in die Vena saphena magna. Der hierdurch erzeugte Wachstumsreiz soll zu einer Durchmesserzunahme der Vene führen. Nach Erreichen eines Durchmessers von > 3mm für infragenuale Rekonstruktionen und von > 3,5 mm für supragenuale Rekonstruktion wurden die konditionierten Venensegmente als Bypass implantiert. Bei 23 Patienten war die Bypassindikation eine nicht kritische pAVK. Bei 2 Patienten war ein Aneurysma der Arteria poplitea die Indikation. Einschlusskriterium für Teilnahme an der Studie war eine nicht variköse VSM mit einem Querdurchmesser zwischen 2 und 3 mm. Die Venenevaluation erfolgte duplexsonografisch im Stehen durch eine Beurteilung der epifaszialen Vena saphena magna von der Leiste bis zum Innenknöchel. Messpunkte waren: 10 cm unterhalb des Hiatus saphenus, 10 cm oberhalb des Knies, 10 cm unterhalb des Knies und 10 cm oberhalb des Innenknöchels. Um das Venenwachstum zu ermitteln, diente als Messpunkt der kleinste ermittelte Durchmesser über einem Messbereich von 10 mm.
Drei Patienten, bei denen ein femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert wurde, hatten bei der Implantation einen Durchmesser der konditionierten VSM > 3.5 mm. Bei 13 Patienten mit Bypassimplantation unterhalb des Kniegelenkes war die konditionierte VSM > 3mm. Eine Wiederholung der Valvulotomie war in keinem der Patienten nötwendig. Die valvulotomierte VSM wurde bei allen Bypassoperationen offen chirurgisch entnommen. Zur postoperativen Kontrolle erfolgten eine Duplexuntersuchung und eine ABI-Messung 1,3,6,12,18 und 24 Monate nach der Implantation.
Ergebnisse: Durchschnittlich vergrößerte sich der VSM-Durchmesser von initial 2,5±0,18 mm vor Valvulotomie auf 2,8±0,2 mm, 3,0±0,3mm und 3,2±0,4 mm jeweils 30, 60 und 90 Tage nach Valvolutomie. Bei der Entnahme betrug der durchschnittliche Bypassdurchmesser 3.7±0.6 mm. Die primäre 1-Jahres-Offenheitsrate mit der valvulotomierten VSM war 81±9,8% im Vergleich zu in der Literatur publizierten 58,0%±8,4% für alloplastische Transplantate, 51% für kleinkalibrige VSM und 81,6%±3,6% für Armvenentransplantate. Die sekundäre 1-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 87%±8,3% verglichen mit 82,6% für in der Literatur angegebene Transplantationen mit kleinkalibriger VSM. Die primäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik betrug 69%±11,8%, verglichen mit 50% in der Literatur angegebener Transplantationen von kleinkalibrige VSM benutzt wurden und 72%, falls Armvenentransplantate benutzt wurden. Die sekundäre 2-Jahres-Offenheitsrate mit der Valvulotomietechnik lag bei 75%±11%.
Fazit: Die Valvulotomie kann zur Zunahme des Venendurchmessers vor Anlage eines femoro-distalen Bypasses verwendet werden, weil sie regelhaft zum Reflux in der valvulotomierten Vene führt und dadurch ein relevantes Venenwachstum verursacht. Zwischen 60 und 90 Tagen nach Valvulotomie wird ein Venenduchmesser > 3.5 mm erreicht und die valvulotomierte VSM kann als femoropoplitealer Bypass oberhalb des Kniegelenkes implantiert werden. Für eine Anastomose unterhalb des Kniegelenkes genügt ein Wachstum bis > 3 mm. Wenn die valvulotomierte Vene einen entsprechenden Durchmesser erreicht, kann die konditionierte VSM benutzt werden, um einen Bypass mit guter Offenheitsprognose zu konstruieren oder einen nicht funktionierenden Bypass zu ersetzen.
Fossile Rohstoffe dienen in unserer heutigen Gesellschaft als Energiequelle und als Rohstofflieferant für Grund-, Feinchemikalien und Pharmazeutika. Sie tragen jedoch zum Klimawandel und Umweltverschmutzung bei. Lignocellulosische Biomasse ist eine erneuerbare und nachhaltige Alternative, die durch biotechnologische Prozesse erschlossen werden kann. Die Bäckerhefe Saccharomyces cerevisiae ist ein sehr gut untersuchter Modellorganismus, für den es zahlreiche genetische Werkzeuge und Analysemethoden gibt. Zudem wird S. cerevisiae häufig in biotechnologischen Prozessen eingesetzt, da diese Hefe robust gegenüber industriellen Bedingungen wie niedrigen pH-Werten, toxischen Chemikalien, osmotischem und mechanischem Stress ist. Die Pentose D-Xylose ist ein wesentlicher Bestandteil von lignocellulosischer Biomasse, die aber nicht natürlicherweise von der Bäckerhefe verwerten werden kann. Für eine kommerzielle Herstellung von Produkten aus lignocellulosischer Biomasse muss S. cerevisiae D-Xylose effektiv verwerten. Für die Bäckerhefe konnten heterologe Stoffwechselwege etabliert werden, damit diese D-Xylose verwerten kann. Für eine effiziente Xyloseverwertung bleiben dennoch zahlreiche Herausforderungen bestehen. Unter anderem nehmen die Zellen D-Xylose über ihre endogenen Hexosetransporter nur langsam auf. Die heterologe Xylose-Isomerase (XI) besitzt in S. cerevisiae eine geringe Aktivität für die Isomerisierung von D-Xylose. Unspezifische Aldosereduktasen konkurrieren mit der Xylose-Isomerase um das gleiche Substrat und produzieren Xylitol, ein starker Inhibitor der Xylose-Isomerase. Eine Möglichkeit die Umsatzrate von Enzymen zu steigern und Substrate vor Nebenreaktionen zu schützen, ist die Anwendung von Substrate Channeling Strategien. Bei Substrate Channeling befinden sich die beteiligten Enzyme in einem Komplex, wodurch die Substrate lokal angereichert werden und von einem aktiven Zentrum zum nächsten weitergeleitet werden, ohne Diffusion in den restlichen Reaktionsraum. In dieser Arbeit wurde untersucht, ob ein Komplex zwischen einem membranständigen Transporter und einem löslichen Enzym konstruiert werden kann, um durch Substrate Channeling eine verbesserte Substrat-Verwertung zu erreichen. Die Xylose-Isomerase aus C. phytofermentans und die endogene Hexose-Permease Gal2 sollten in dieser Arbeit als Modellproteine in S. cerevisiae-Zellen mit Hilfe von Protein-Protein-Interaktionsmodulen (PPIM) in räumliche Nähe zueinander gebracht werden.
Die Expression verschiedener PPIM konnte in S. cerevisiae mittels Western Blot nachgewiesen werden. Auch Fusionsproteine aus unterschiedlichen PPIM wurden in dieser Hefe exprimiert. Die PPIM binden komplementäre PPIM oder kurze Peptidliganden, welche an die Xylose-Isomerase und an den Gal2-Transporter fusioniert wurden. Die Funktionalität beider Proteine wurde mittels in vivo und in vitro Tests untersucht. Die Xylose-Isomerase mit N-terminalen Liganden des WH1-Protein-Protein-Interaktionsmoduls (WH1L-XI) und der Gal2-Transporter mit N-terminalen SYNZIP2-Protein-Protein-Interaktionsmodul (SZ2-Gal2) erwiesen sich als geeignete Kandidaten für weitere Untersuchungen. Mittels indirekter Immunfluoreszenz konnte die Ko-Lokalisierung von SZ2-Gal2 und WH1L-XI, die einander über ein Scaffold-Protein binden, nachgewiesen werden.
Transformanten, in denen ein Komplex aus Transporter, Scaffold-Protein und Xylose-Isomerase gebildet wurde, zeigten bessere Fermentationseigenschaften gegenüber der Scaffold-freien Kontrolle und dem Wildtyp: Sie verwerteten Xylose schneller, bildeten weniger vom unerwünschten Nebenprodukt Xylitol, produzierten mehr Ethanol und wiesen eine höhere Ethanolausbeute auf. Der beobachtete Substrate Channeling Effekt kompensierte die geringere Enzymaktivität der WH1L-XI im Vergleich zum Wildtyp-Protein. Die Wirksamkeit des Substrate Channeling wurde verringert, wenn die Bildung des Komplexes aus Transporter, Scaffold-Protein und Xylose-Isomerase gestört wurde, indem ein getaggtes GFP mit dem Scaffold-Protein um die Bindungsstelle an Gal2 konkurrierte. Dies zeigt, dass die positive Wirkung auf die Komplex-Bildung zwischen XI und Gal2 zurück zu führen ist. Die Fermentationseigenschaften konnten gesteigert werden, indem der zuvor zwischen SZ2-Zipper und Gal2-Transporter verwendete Linker, der aus zehn Aminosäuren von Glycin, Arginin und Prolin (GRP10) bestand, durch einen aus Glycin und Alanin (GA10) ersetzt wurde. Die verbesserten Fermentationseigenschaften beruhten auf einem Substrate Channeling Effekt und einer gesteigerten Aufnahmerate des SZ2-GA10-Gal2-Transporters. Ein Vergleich der Strukturvorhersagen von SZ2-GRP10-Gal2 und SZ2-GA10-Gal2 zeigte, dass der GRP10-Linker einen unstrukturierten, flexiblen Linker ausbildet, während der GA10-Linker eine starre α-Helix ausbildet. Die Struktur und der Transportprozess von Gal2 sind nicht aufgeklärt. Bei verwandten Transportern geht man davon aus, dass Substrate durch Konformationsänderungen ins Innere der Zelle transportiert werden, indem die beiden Domänen gegeneinander klappen. Die α-Helix könnte die Geschwindigkeit der Konformationsänderungen begünstigen.
Durch Kontrollexperimente konnte ausgeschlossen werden, dass die gesteigerten Fermentationseigenschaften eine Folge der Stabilisierung der XI- und Gal2-Fusionsproteine durch das Anfügen des Liganden oder durch Komplexbildung mit dem Scaffold-Protein waren. Substrate Channeling zwischen Gal2 und XI entsteht durch die Komplexbildung mit dem Scaffold-Protein, wodurch sich Gal2 und XI in räumlicher Nähe zueinander befinden. Dieser Effekt beruht möglicherweise zusätzlich aufgrund einer hohen örtlichen Ansammlung dieser Proteine, da die tetramere XI weitere Scaffold-Proteine binden könnte, welche weitere Gal2-Transporter binden könnte. Darüber hinaus sammeln sich Transporter an bestimmten Orten der Membran an und Transporter mit ähnlicher oder gleicher Transmembransequenz tendieren dazu zu ko-lokalisieren. Hierdurch könnten Gal2-XI-Agglomerate entstehen und Xylose wird mit hoher Wahrscheinlichkeit von einer der vielen Xylose-Isomerasen umgesetzt.
Hintergrund: In der allgemeinmedizinischen Versorgung ist die Einbindung von Arzthelferinnen in der Betreuung depressiver Patienten ein innovatives Vorgehen. Jedoch ist wenig darüber bekannt, wie Arzthelferinnen ihre neue Aufgabe erleben. Die vorliegende Arbeit beschreibt die Sichtweise und Erfahrungen von Arzthelferinnen, die ein Case Management für depressive Patienten in deutschen Hausarztpraxen durchgeführt haben. Methodik: Es handelt sich um eine qualitative Studie, die im Rahmen der PRoMPT-Studie (Primary Care Monitoring for Depressive Patients Trial) durchgeführt wurde. Mithilfe eines semistrukturierten Interviewleitfadens wurden 26 Arzthelferinnen interviewt und anschließend eine Inhaltsanalyse durchgeführt. Der Fokus lag dabei auf drei Schlüsselthemen: Rollenverständnis, Belastungsfaktoren und Krankheitskonzept. Ergebnisse: Die meisten Arzthelferinnen empfanden ihre neue Rolle als Bereicherung auf einer persönlichen und beruflichen Ebene. Sie sahen Ihre Hauptaufgabe in der direkten Interaktion mit den Patienten, während die Unterstützung der Hausärzte für sie von untergeordneter Bedeutung war. Belastende Faktoren durch die neue Arbeitsaufgabe betrafen die Arbeitsbelastung, die Arbeitsbedingungen und die Interaktion mit depressiven Patienten. Es zeigte sich ein sehr heterogenes Krankheitsverständnis bezüglich der Erkrankung Depression. Schlussfolgerung: Arzthelferinnen sind bereit, ihren Aufgabenbereich von Verwaltungsarbeiten auf mehr patientenzentrierte Tätigkeiten auszudehnen. Auch wenn Arzthelferinnen dabei verstärkt protokollierende Aufgaben übernehmen, ist die sich daraus ergebende Mehrbelastung nicht zu unterschätzen.
Die Analyse von DNA-Sequenzen steht spätestens seit der Feststellung ihrer tragenden Rolle in der Vererbung organismischer Eigenschaften im Fokus biologischer Fragestellungen. Seit Kurzem wird mit modernsten Methoden die Untersuchung von kompletten Genomen ermöglicht. Dies eröffnet den Zugang zu genomweiten Informationen gegenüber begrenzt aussagekräftigen markerbasierten Analysen. Eine Genomsequenz ist die ultimative Quelle an organismischer Information. Allerdings sind diese Informationen oft aufgrund technischer und biologischer Gründe komplex und werfen meist mehr Fragen auf, als sie beantworten.
Die Rekonstruktion einer bislang unbekannten Genomsequenz aus kurzen Sequenzen stellt eine technische Herausforderung dar, die mit grundlegenden, aber in der Realität nicht zwingend zutreffenden Annahmen verbunden ist. Außerdem können biologische Faktoren, wie Repeatgehalt oder Heterozygotie, die Fehlerrate einer Assemblierung stark beeinflussen. Die Beurteilung der Qualität einer de novo Assemblierung ist herausfordernd, aber zugleich äußerst notwendig. Anschließend ist eine strukturelle und funktionale Annotation von Genen, kodierenden Bereichen und repeats nötig, um umfangreiche biologische Fragestellungen beantworten zu können. Ein qualitativ hochwertiges und annotiertes assembly ermöglicht genomweite Analysen von Individuen und Populationen. Diese Arbeit beinhaltet die Assemblierung und Annotation des Genoms der Süßwasserschnecke Radix auricularia und eine Studie vergleichender Genomik von fünf Individuen aus verschiedenen molekularen Gruppen (MOTUs).
Mollusken beherbergen nach den Insekten die größte Artenvielfalt innerhalb der Tierstämme und besiedeln verschiedenste, teils extreme, Habitate. Trotz der großen Bedeutung für die Biodiversitätsforschung sind verhältnismäßig wenige genomische Daten öffentlich verfügbar. Zudem sind Arten der Gattung Radix auch aufgrund ihrer großen geografischen Verbreitung in diversen biologischen Disziplinen als Modellorganismen etabliert. Eine annotierte Genomsequenz ermöglicht über bereits untersuchte Felder hinaus die Forschung an grundlegenden biologischen Fragestellungen, wie z.B. die Funktionsweise von Hybridisierung und Artbildung. Durch Assemblierung und scaffolding von sechs whole genome shotgun Bibliotheken verschiedener insert sizes und einem transkriptbasiertem scaffolding konnte trotz des hohen Repeatgehalts ein vergleichsweise kontinuierliches assembly erhalten werden. Die erhebliche Differenz zwischen der Gesamtlänge der Assemblierung und der geschätzten Genomgröße konnte zum Großteil auf kollabierte repeats zurückgeführt werden.
Die strukturelle Annotation basierend auf Transkriptomen, Proteinen einer Datenbank und artspezifisch trainierten Genvorhersagemodellen resultierte in 17.338 proteinkodierenden Genen, die etwa 12,5% der geschätzten Genomgröße abdecken. Der Annotation wird u.a. aufgrund beinhaltender Kernrthologen, konservierter Proteindomänenarrangements und der Übereinstimmung mit de novo sequenzierten Peptiden eine hohe Qualität zugesprochen.
Das mapping der Sequenzen von fünf Radix MOTUs gegen die R. auricularia Assemblierung zeigte stark verringerte coverage außerhalb kodierender Bereiche der nicht-Referenz MOTUs aufgrund hoher Nukleotiddiversität. Für 16.039 Gene konnten Topologien berechnet werden und ein Test auf positive Selektion ausgeführt werden. Insgesamt konnte über alle MOTUs hinweg in 678 verschiedenen Genen positive Selektion detektiert werden, wobei jede MOTU ein nahezu einzigartiges Set positiv selektierter Gene beinhaltet. Von allen 16.039 untersuchten Genen konnten 56,4% funktional annotiert werden. Diese niedrige Rate wird vermutlich durch Mangel an genomischer Information in Mollusken verursacht. Anschließende Analysen auf Anreicherungen von Funktionen sind deshalb nur bedingt repräsentativ.
Neben den biologischen Ergebnissen wurden Methoden und Optimierungen genomischer Analysen von Nichtmodellorganismen entwickelt. Dazu zählen eigens angefertigte Skripte, um beispielsweise Transkriptomalignments zu filtern, Trainings eines Genvorhersagemodells automatisiert und parallelisiert auszuführen und Orthogruppen bestimmter Arten aus einer Orthologievorhersage zu extrahieren. Zusätzlich wurden Abläufe entwickelt, um möglichst viele vorhandene Daten in die Assemblierung und Annotation zu integrieren. Etwa wurde ein zusätzliches scaffolding mit eigens assemblierten Transkripten mehrerer MOTUs sequenziell und phylogenetisch begründet ausgeführt.
Insgesamt wird eine umfassende und qualitativ hochwertige Genomsequenz eines Süßwassermollusken präsentiert, welche eine Grundlage für zukünftige Forschungsprojekte z.B. im Bereich der Biodiversität, Populationsgenomik und molekularen Ökologie bietet. Die Ergebnisse dieser Arbeit stellen einen Wissenszuwachs in der Genomik von Mollusken dar, welche bisher trotz ihrer Artenvielfalt deutlich unterrepräsentiert bezüglich assemblierter und annotierter Genome auffallen.
HINTERGRUND: Asthma ist die häufigste chronische Krankheit bei Kindern und Jugendlichen, wobei bei einem Großteil bereits erste Exazerbationen im Vorschulalter auftreten. Diese sind meist mit stationären Aufenthalten verbunden, jedoch gibt es nur wenige detaillierte zeitliche und demografische Untersuchungen dieser besonders schweren Asthmakohorte. Ebenso gibt es kaum Untersuchungen über die Verteilung der Asthmaphänotypen in dieser Altersgruppe.
METHODEN: Es erfolgte eine retrospektive Analyse von 572 Krankenhausaufenthalten im Universitätsklinikum für Kinder- und Jugendmedizin Frankfurt mit der ICD Diagnose Asthma (J.45) zwischen dem 1. Januar 2008 und dem 31. Dezember 2017 bei Kindern im Alter 1-5 Jahren. Die Aufteilung erfolgte in drei Phänotypen. Allergisches Asthma (RAST und/oder Prick-Test positiv), eosinophiles Asthma (Eosinophilie >300/µl und RAST/Prick-Test negativ) und nicht-allergisches Asthma (Eosinophilie ≤300/µl und RAST/Prick-Test negativ). Akut schweres Asthma wurde definiert als akute Dyspnoe, Tachypnoe, Sauerstoffbedarf und/oder systemische Steroidtherapie. Analysiert wurden u.a. Alter, Geschlecht, Liegezeit, Therapie und Re-Hospitalisierungsrate.
ERGEBNISSE: Von 572 Krankenhausaufenthalten mit der Diagnose Asthma erfüllten 205 Patienten die Definition eines akut schweren Asthmas. Von diesen 205 Kindern wurden bereits n=55 (26,8%) vor der stationären Aufnahme mit einem inhalativen Steroid (ICS) behandelt. Die phänotypische Charakterisierung ergab folgende Verteilung: 49% wiesen Allergisches Asthma, 15% Asthma mit atopischer Dermatitis, 10% eosinophiles nicht-allergisches Asthma und 26% nicht-allergisches Asthma. Von diesen Patienten wurden 71.7% mit ICS und 15,1% mit Montelukast als Monotherapie entlassen. Die Rate der Notfallvorstellung (Notfallambulanz und Re-Hospitalisierung) innerhalb von 12 Monaten nach Entlassung war mit n=42 (20,5%) hoch. Die Zahl der Eosinophilen (> 300 µl) hatte keinen Einfluss auf die Re-Hospitalisierung. Es zeigte sich eine hohe Verschreibung von Antibiotika bei Asthma-Patienten (143 (69,8%) der 205 Patienten) während des stationären Aufenthalts, wobei nur 42 Patienten (20,5%) einen CRP-Wert über 2 mg/dl aufwiesen.
Schlussfolgerung: Obwohl die Asthmaprävalenz bei Schulkindern höher ist, leiden Vorschulkinder im Alter von 1-5 Jahren häufiger an schweren Asthma-Exazerbationen mit Hospitalisierung. Trotz protektiver Therapie mit ICS oder Montelukast ist die Re-Hospitalisierungsrate hoch. Die bisherigen Therapiekonzepte reichen in dieser Altersgruppe anscheinend nicht aus, um Patienten mit schwerem Asthma im Vorschulalter ausreichend zu kontrollieren. Neue Therapiekonzepte wie die Triple-Therapie mit Zugabe des Long-Acting Muscarin Rezeptors (Tiotropium) sollten dringend evaluiert werden.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Es geht um eine spezielle Auseinandersetzung mit dem Sachunterricht der hessischen Grundschule. Ziel eines Projektes („IGEL“ - Individuelle Förderung und adaptive Lern-Gelegenheiten in der Grundschule) des Frankfurter IDeA-Zentrums war es, das pädagogische Handeln von Lehrkräften zu verändern. Wir folgen diesem Versuch anhand dreier Lehrerinnen, die von Projektseite in der Methode der „Kognitiven Strukturierung“ fortgebildet wurden und die diese Methode im Rahmen einer standardisierten Unterrichtseinheit zum „Schwimmen und Sinken“ erproben sollen. Zu diesem Zweck führen wir Fallanalysen von Sachunterrichtsstunden vor und nach der Fortbildung derselben Lehrkräfte durch, sowie detaillierte didaktische Analysen des jeweils eingesetzten Materials. Wir kommen zu differenzierten kritischen Schlüssen. Das pädagogische und insbesondere das didaktische Handeln der Lehrerinnen wird in Folge der Fortbildungen stark perturbiert; zu der beabsichtigten und in Form von Handreichungen vorgegebenen „Kognitiven Strukturierung“ auf Schülerseite kommt es indes nicht. Stattdessen studieren wir intensiv die Überforderung der Lehrerinnen, die aus einer Kombination von a. den fachwissenschaftlichen Hintergründen, b. der freiwilligen Verpflichtung zur Manualumsetzung und c. den artikulierten Bedürfnissen der Schüler resultiert. Wir können anhand des Versuchs, die Lehrpersonen in „Kognitiver Strukturierung“ fortzubilden, einen Blick auf deren eigene kognitive und pädagogische Strukturen werfen; eine kontrollierte Eingriffnahme in diese Strukturen jedoch findet im Rahmen der „Implementationen“ nicht statt. Die Interventionsform der randomisierten Nachmittagsfortbildung wird zwar verworfen, lediglich angerissen aber die Frage, wie das erlangte Wissen zu nutzen wäre.
Ziel der vorliegenden Arbeit ist der Aufbau von koaxialen Plasmabeschleunigern und deren Verwendung für die Untersuchung der Eigenschaften von kollidierenden Plasmen. Zukünftig sollen diese kollidierenden Plasmen als intensive Strahlungsquelle im Bereich der ultravioletten (UV-) und vakuumultravioletten (VUV-)Strahlung sowie in der Grundlagenforschung als Target zur Ionenstrahl-Plasma-Wechselwirkung Verwendung finden. Für diese Anwendungen steht dabei eine Betrachtung der physikalischen Grundlagen im Vordergrund. So sind neben der Kenntnis der Plasmadynamik auch Aussagen bezüglich der Elektronendichte, der Elektronentemperatur und der Strahlungsintensität von Bedeutung. Im Einzelnen konnte gezeigt werden, dass es möglich ist, durch eine Plasmakollision die Elektronendichte des Plasmas im Vergleich zu der eines einzelnen Plasmas deutlich zu erhöhen - im Maximalfall um den Faktor vier. Gleichzeitig stieg durch die Plasmakollision die Lichtintensität im Wellenlängenbereich der UV- und VUV-Strahlung um den Faktor drei an...
Am Ende seiner Tage sprach der König Salomon: "Die Sonne geht auf und unter [...]. Was gewesen ist, wird [wieder] sein, was getan worden ist, wird [wieder] getan, und es gibt nichts Neues unter der Sonne".1 Im August des Jahres 1881, beim Spaziergang durch die Wälder am See von Silvaplana, bei einem mächtigen, pyramidal aufgetürmten Block, "6000 Tausend Fuß jenseits von Mensch und Zeit" kam einem Professor der klassischen Philologie jener Gedanke wieder – der Gedanke der "Ewigen Wiederkunft des Gleichen", die er später als das Hauptprinzip der altgriechischen Zeitauffassung formulierte. Der Professor hieß Friedrich Nietzsche.2 Mehr als hundert dreißig Jahre sind nach seinem Spaziergang vergangen, und mehr als hundert dreißig Jahre dauert die Diskussion über die zyklische und lineare Zeit. Es wurde mehrmals behauptet und wieder verworfen, dass der Hauptunterschied zwischen dem "hebräischen" und "griechischen" Denken, zwischen den "Gläubigen" und den "Heiden" gerade in dieser Zeitauffassung besteht. Die mythische Zeit der Griechen sei räumlich und statisch, sie habe kein Ziel und keinen Zweck, sie wandle im ewigen Kreislauf gefühllos und träge, ohne Anfang und Ende, ohne Wohin und Woher, ohne Hoffnung. Die Zeit der Tora hingegen sei zielgerichtet. Die Erschaffung der Welt und die Sintflut, der Auszug aus Ägypten und die Wüstenwanderung – all dies seien einmalige Ereignisse, welche sich nie wiederholen würden. Sie alle hätten einen Zweck – die Erlösung der Menschheit. Jede von ihnen sei ein Fortschritt – ein Schritt auf dem Pfad der Geschichte, der Geschichte mit Anfang und Ende, mit Wohin und Woher, mit Hoffnung.3
Die vorliegende Arbeit beabsichtigt nicht, die intuitive Völkerpsychologie zu untersuchen. Vielmehr handelt es sich hier um die Vorstellungen einer begrenzten Gruppe der mittelalterlichen jüdischen Intellektuellen aus dem Spanien des 12. Jhs. Ihre Gedanken waren gleichzeitig von der griechischen Philosophie und dem jüdischen Messianismus geprägt. Eben diese eigenartige Kombination macht die Frage nach ihrer Zeitauffassung so spannend. Als Quelle bei einer solchen Fragestellung scheinen mir die beiden Bücher des Rabbi Abraham Ibn Daud von Interesse zu sein – sein Geschichtsbuch Sefer ha-Qabalah (SQ) und sein philosophisch-theologisches Traktat Al-ʿAqīdah ar-Rafīʿah (AR).
Abraham Ibn Daud, Geschichtsschreiber, Philosoph, Astronom, vermutlich auch Arzt, wurde geboren um 1110 in Cordoba, der Hauptstadt des umayyadischen Kalifates und dem kulturellen Zentrum Andalusiens des 12. Jhs. Er war ein Sohn der Tochter des berühmten Gelehrten Isaak Albaliyah.4 Die Erziehung genoss er im Hause dessen Sohnes, seines Onkels, und dem Schüler von Isaak Alfasi, – Baruch Albaliyah.5 Aus seinen Schriften kann man schließen, dass er ausreichende Kenntnisse sowohl in der Bibel, dem Talmud, der hebräischen Poesie als auch in den Naturwissenschaften und der griechischen Philosophie besaß. Darüber hinaus soll er auch mit der polemischen Literatur der Christen, der Moslems und der Karäer, eventuell auch mit dem Evangelium und dem Koran vertraut gewesen sein. Von seinen Werken sind uns sieben bekannt, zwei davon allerdings nur ihrem Namen nach.6 Das auf Arabisch verfasste theologisch-philosophische Traktat Al-ʿAqīdah ar-Rafīʿah (AR, "Der erhabene Glaube") ist nur in zwei hebräischen Übersetzungen aus dem 14. Jh. – Emunah Ramah (ER)7 von R. Salomon Ben Labi und Emunah Niśʾah (EN)8 von R. Samuel Moṭoṭ erhalten.9 Das traditionshistorische Buch Sefer ha-Qabalah (SQ, "Buch der Tradition")10 wurde auf Hebräisch verfasst und von drei weiteren ebenso auf Hebräisch geschriebenen Werken begleitet: Divrey Malkey Yisraʾel (DMY, "Geschichte der Könige Israels"),11 Midraš Zeḫaryah (MZ, "Auslegung der Prophetie Sacharjas")12 und Zeḫer Divrey Romi (ZDR, "Chronik der römischen Geschichte").13
Die Verwendung von Photoschaltern zur gezielten Kontrolle von Systemen birgt ein hohes Potential hinsichtlich biologischer Fragestellungen, bis hin zu optoelektronischen Anwendungen. Infolge einer Photoanregung kommt es zu Geometrieänderungen, die einen erheblichen Einfluss auf ihr photophysikalisches Verhalten haben. Die Änderungen der photochemischen, wie photophysikalischen Eigenschaften, beruht entweder auf der Isomerisierung von Doppelbindungen oder auf perizyklischen Reaktionen. Durch sorgfältige Modifikationen, wie beispielsweise die Änderung der Konjugation durch unterschiedlich große π-Elektronensysteme, der Molekülgeometrie oder der Veränderung des Dipolmoments, lassen sich intrinsische Funktionen variieren.
Die Kombination dieser Eigenschaften stellt eine komplexe Herausforderung dar, da diese Änderungen einen direkten Einfluss auf wichtige Charakteristika wie die Adressierbarkeit, die Effizienz und die Stabilität der Moleküle haben. Darüber hinaus spielt die thermische Stabilität eine erhebliche Rolle im Hinblick auf die Speicherung von Energie oder Informationen für Anwendungsbereiche in der Energiegewinnung und Datenverarbeitung.
Für die Anwendung solcher photochromen Moleküle ist hinsichtlich der oben genannten Eigenschaften auch das Wissen über den photoinduzierten Reaktionsmechanismus unabdingbar.
Im Rahmen dieser Arbeit wurde der Einfluss auf die Isomerisierungsdynamik organischer Photoschalter durch unterschiedliche Modifikationen mittels stationärer und zeitaufgelöster Spektroskopie untersucht. Im Bereich der Merocyanine konnte ein Derivat vorgestellt werden, das ausschließlich zwischen zwei MC-Formen (trans/cis) isomerisiert. Die interne Methylierung am Phenolatsauerstoff der Chromeneinheit verhindert die Ringschlussreaktion zum SP und somit seinen zwitterionischen Charakter. Die stabilen Grundzustandsisomere TTT und CCT weisen durch den Methylsubstituenten eine hypsochrome Verschiebung ihrer Absorptionsmaxima auf, während TTT das thermodynamisch stabilste Isomer darstellt. Das MeMC wies eine erstaunlich hohe Effizienz seiner Schaltamplituden, insbesondere der TTT → CCT Photoisomerisierung auf, sowie eine überaus hohe Quantenausbeute.
Das MeMC wies zudem eine signifikante Lösungsmittelabhängigkeit auf, die sich insbesondere in der Photostabilität bemerkbar macht. Während das MeMC in MeCN und EtOH photodegradiert, konnte in EtOH/H2O eine konstante Reliabilität festgestellt werden. Diese Zuverlässigkeit impliziert nicht nur eine Stabilisierung durch das Wasser, sondern auch eine Resistenz gegenüber Hydrolysereaktionen. Darüber hinaus konnten kinetische Studien eine hohe thermische Rückkonversion von CCT zu TTT bei Raumtemperatur nachweisen, womit auf schädliche UV-Bestrahlung verzichtet werden könnte.
Die Untersuchung der Kurzzeitdynamiken beider Grundzustandsisomere gab Aufschluss über die Beteiligung anderer möglicher MC-Intermediate und den Einfluss der Methylgruppe auf das System. Mittels quantenchemischer Berechnungen konnte eine erste Initiierung um die zentrale Doppelbindung beider Isomere bestimmt werden, die jeweils zu einem heißen Grundzustandsintermediat führt, bis nach einer zweiten Isomerisierung der endgültige Grundzustand der Photoprodukte populiert wird. Dies bedeutet, dass die trans/cis-Isomerisierung über TTT-TCT-CCT und die Rückkonversion über CCT-CTT-TTT erfolgt.
Im Bereich der Hydrazon-Photoschalter konnten unterschiedlich substituierte Derivate mittels statischer und zeitaufgelösten UV/Vis-Studien untersucht werden. Da ESIPT Prozesse eine wichtige Funktion bei der Kontrolle von biologischen Systemen spielen, wurden verschiedene Hydrazonderivate hinsichtlich ihrer Reaktionsmechanismen untersucht. Als Rotoreinheit diente zum einen eine Benzothiazolkomponente, die die interne H-Bindung des angeregten Z-Hydrazons schwächen sollte und zum anderen wurde ein Chinolinsubstituent eingesetzt, der als Elektronenakzeptor diente und den H-Transfer begünstigt. Der Einsatz der Benzothiazolkomponente bewirkte die gewünschte Vergrößerung der bathochromen Verschiebung des E-Isomers, sowie eine deutliche Erhöhung der thermischen Stabilität des metastabilen
Zustands. Dies bestätigten die zeitaufgelösten Studien der Z zu E Isomerisierung, bei denen die Isomere im Vergleich zum Chinolinhydrazonderivat, in beiden ausgewählten Lösungsmitteln metastabile Z-Intermediate zeigten und eine Lebenszeit bis in den µs-Zeitbereich aufwiesen. Die Rückreaktion beider Derivate (HCN) und (HBN) hingegen zeigte eine barrierelose Umwandlung in die beteiligten Photoprodukte. Trotz der Verwendung des Chinolinsubstituenten zusammen mit Naphthalin als Rotoreinheit (HCN), konnte kein ESIPT Prozess beobachtet werden. HCB mit einer Kombination aus einem Chinolinrotor und eines Benzothiazolsubstituenten, wies eine Hydrazon-Azobenzol-Tautomerie auf, die ein prototropes Gleichgewicht zwischen dem E-Hydrazon und der E-Azobenzolform (E-AB) ausbildete. Die Reaktionsdynamiken des Z-Hydrazons zum E-AB wiesen eine ultraschnelle Bildung des Photoproduktes auf, während die Rückreaktion über einen ESIPT im sub-ps-Bereich erfolgte. Dieser H-Transfer hat die Bildung des angeregten E-Hydrazons zur Folge. Interessanterweise wurde kein Rückprotonentransfer nachgewiesen, sondern die mögliche Formation eines Z-AB gefunden. Damit unterscheidet sich dieser Reaktionsmechanismus erheblich von den typischen ESIPT Prozessen, die normalerweise zu ihrem Ausgangsmolekül zurückrelaxieren. Des Weiteren konnte ein Pyridinoxid und Benzoylpyridin-substituiertes Hydrazon charakterisiert werden, bei denen die stationären Studien kein Schaltverhalten, sondern Photodegradation aufwiesen. Die zeitaufgelösten Daten ergaben ebenfalls keine Photoproduktbildung, was die These der Photozersetzung unterstützt. Die Verwendung von zusätzlich substituierten Rotoreinheiten, wie beispielsweise Pyridinoxid und Benzoylpyridin, die aufgrund fehlender Protonenakzeptormöglichkeit keine interne H-Bindung ausbilden, erlaubt keine Bildung des Z-Hydrazon Isomers.
Um die kontinuierlich auf uns einströmende Menge an Reizen zu verarbeiten, ist es wichtig, die Informationen genau zu selektieren. Ein hilfreicher Mechanismus ist hierbei die Aufmerksamkeit gezielt nur auf eine Informationsquelle zu richten und zu verarbeiten.
So ist es möglich, selbst in komplexen Situationen, wie zum Beispiel einer Feier mit vielen verschiedenen Gesprächen, ganz gezielt ein einzelnes herauszufiltern.
Der Effekt von Aufmerksamkeit auf auditory steady-state Responses (aSSR) wurde in der Vergangenheit schon in verschiedenen Studien mit unterschiedlichen Messverfahren und Stimuli untersucht. Dabei wurden teils widersprüchliche Ergebnisse gefunden, die entweder gar keine oder auf sehr kleine Frequenzbereiche beschränkte Aufmerksamkeitseffekte fanden.
Das Ziel dieser Studie war es, die Auswirkungen von Aufmerksamkeit auf die aSSR innerhalb eines größeren Frequenzspektrums (11 Hz, 23 Hz, 41 Hz, 73 Hz und 97 Hz) zu analysieren. Für diesen Zweck wurden den Probanden nach Instruktion der zu beachtenden Seite jeweils zwei benachbarte Modulationsfrequenzen während vier aufeinander folgenden Blöcken dichotisch präsentiert. Die Probanden wurden angewiesen, Trägerfrequenzänderungen auf der zu beachtenden Seite durch Betätigen einer Maustaste anzugeben. Die Registrierung der aSSR-Antworten geschah mittels Elektroenzephalogramm (EEG). Auch die durch die Stimulation hervorgerufene P300 wurde dargestellt.
Bezüglich des Effekts von Aufmerksamkeit auf die aSSRs zeigte sich nach Analyse der gewonnenen Daten im Frequenzbereich von 23 Hz eine Auswirkung. Diese stellte sich in Form einer Amplitudensteigerung auf der jeweils durch den Probanden beachteten Präsentationsseite dar. Bei einer Modulationsfrequenz von 41 Hz kam es bei Präsentation auf der rechten Seite zu höheren Amplituden als bei Präsentation auf der linken Seite. Bei 73 Hz und 97 Hz konnte keinerlei Auswirkung weder der Aufmerksamkeit noch der Präsentationsseite registriert werden. Auffällig war bei den präsentierten Tönen im 20 Hz und 70 Hz Bereich auch eine im Vergleich zu den anderen Frequenzbereichen (11 Hz, 41 Hz und 97 Hz) verlängerte Reaktionszeit der Probanden. In Kombination mit der Modulation der aSSR-Amplitude durch Aufmerksamkeit bei 23 Hz könnte dies ein Hinweis auf einen förderlichen Einfluss der Aufgabenschwierigkeit auf die Detektierbarkeit von Aufmerksamkeitseffekten sein.
Im Gegensatz hierzu zeigte die dargestellte P300 in allen präsentierten Blöcken einen deutlichen Effekt der Aufmerksamkeit. Dieser äußerte sich ebenfalls in einer Steigerung der Amplitude.
Es scheint also zumindest ein moderater Einfluss von Aufmerksamkeit auf die aSSRs zu existieren. Gleichzeitig wirkt dieser allerdings stark abhängig von gewähltem Stimulus und Messmethode. Der Effekt von Aufmerksamkeit auf die P300 konnte dagegen gut repliziert werden und scheint daher bei dichotischer Stimulation ein deutlicher Marker für Aufmerksamkeit zu sein.
Die digitale Revolution stellt viele traditionelle Industrien vor große Herausforderungen. Auf dem Finanzmarkt werden innovative Geschäftsmodelle geschaffen, die die Rahmenbedingungen, unter denen Finanzprodukte und -dienste angeboten werden, drastisch verändern. Infolgedessen entstehen rechtliche Unsicherheiten sowohl für die Marktakteure als auch für die Aufsicht. Diese Unsicherheiten weisen auf die Notwendigkeit hin, den Rechtsrahmen an die technologische und ökonomische Entwicklung anzupassen. Im Rahmen dieser Dissertation werden die Herausforderungen für das Aufsichts- und Wettbewerbsrecht untersucht, die die digitale Transformation des Finanzmarktes verursacht. Der Finanzmarkt wird vor allem durch die Entstehung von FinTechs, durch das Eintreten von BigTechs in den Finanzbereich und durch die Veränderung der Produkte und Dienstleistungen traditioneller Anbieter auf der Grundlage moderner Technologien transformiert. Die Arbeit gibt einen Überblick über die zentralen innovativen Geschäftsmodelle, der mit den zahlreichen praxisrelevanten Beispielen begleitet wird. Anschließend folgt eine Beurteilung des Umfanges und der Effizienz der vorhandenen und vorgeschlagenen aufsichtsrechtlichen Vorschriften. Diese Erkenntnisse dienen als Grundlage für die wettbewerbsrechtliche Analyse des Finanzmarktes mit dem Fokus auf die plattform- und algorithmenbasierten Geschäftsmodelle im zweiten Teil der Dissertation. Da werden wettbewerbsrechtliche Konstellationen betrachtet, die zwischen konkurrierenden innovativen Geschäftsmodellen entstehen. Die Verfasserin befasst sich mit der Problematik der Definition des relevanten Marktes bei den algorithmen- und plattformbasierten Geschäftsmodellen, der Beurteilung ihrer Marktmacht, den möglichen Auswirkungen der Netzwerkeffekte auf die mehrseitigen Plattformen. Ferner werden solche Aspekte wie Datenzugriff als wettbewerbsrechtlicher Faktor und die Rolle der Algorithmen für die Durchführung wettbewerbswidrigen Praktiken analysiert. Infolgedessen wird ein Überblick über mögliche kartellrechtliche Probleme gegeben, die im Rahmen der Digitalisierung im Finanzmarkt auftreten können, sowie die Vorstellungen darüber, wie sich Wettbewerbsfaktoren verändern sollten, wenn die Anwendung der traditionellen Konzepte des Wettbewerbsrechts nicht immer möglich oder sinnvoll ist. Es werden die Bereiche identifiziert, in denen das europäische und deutsche Wettbewerbsrecht derzeit nicht in der Lage ist, die von den innovativen Geschäftsmodellen stammenden Herausforderungen effektiv zu bewältigen. Im dritten Teil der Dissertation wird erörtert, wie sich das Aufsichts- und das Wettbewerbsrecht ergänzen und zusammen ein System der Ex-ante- und Ex-post-Regulierung bilden. Es wird dargestellt, wie die aufsichtsrechtlichen Anforderungen an die Finanzinstitute, FinTechs und BigTechs mit den ausgewählten Wettbewerbsergebnissen im Finanzsektor zusammenhängen. Darüber hinaus erklärt die Verfasserin, inwiefern einige aufsichtsrechtliche Vorschriften wettbewerbsnachteilig oder wettbewerbsfreundlich auswirken können und warum die Koordination zwischen den aufsichts- und wettbewerbsrechtlichen Instrumenten und Ansätzen essenziell ist. Schließlich werden die Vor- und Nachteile unterschiedlicher Optionen zur Regulierung innovativer Geschäftsmodelle auf dem Finanzmarkt auf einer abstrakteren Ebene erwogen.
Hintergrund und Fragestellung: Nomogramme können durch individuelle Prognoseberechnungen Patienten helfen, Therapieentscheidungen zu treffen sowie ihre Gesundheitskompetenz durch ein besseres Krankheitsverständnis zu fördern. Nomogramme sind graphische Darstellungen von Regressionsgleichungen, mit denen sich verschiedene Endpunkte berechnen lassen. In der vorliegenden Arbeit sollen neben Hintergrundwissen zu Nomogrammen auch Gütekriterien für eine kritische Nutzung von Nomogrammen im klinischen Alltag sowie eine Übersicht empfehlenswerter Nomogramme vorgestellt werden.
Methode: Es fand eine systematische Literaturrecherche in der Datenbank Medline im Zeitraum von September 2014 bis Mai 2016 statt. Gesucht wurde auf englischer Sprache nach Nomogrammen in der Urologie anhand des Suchterms „Nomogram AND urology“. Einschlusskriterien für die Betrachtung waren vorhandener Abstract sowie englische oder deutsche Sprache. Die Bewertung der Nomogramme fand unter folgenden Gesichtspunkten statt: Fallzahl, Aktualität, Validierung, Gütekriterien sowie klinische Anwendung.
Ergebnis: Insgesamt hat die Literaturrecherche 311 Nomogramme in der Urologie zu verschiedenen Erkrankungen und Organsystemen identifizieren können. Für die Bereiche Urodynamik, Nebenniere, entzündliche Erkrankungen der Harnwege, Penis, Urolithiasis, Urothelkarzinome, Nierenkarzinome und Prostatakarzinome sind 122 extern validierte Nomogramme gefunden worden. Dabei wurde die fehlerhafte Nutzung des Nomogrammbegriffs deutlich, zumal Tabellen, Perzentilenkurven und Diagramme als solche beschrieben wurden. Hinsichtlich der Qualität der publizierten Modelle gibt es noch Verbesserungsbedarf. So sind viele publizierte Modelle nicht extern validiert oder nur einem Datensplitting unterzogen worden, was die Übertragbarkeit in fremde Populationen behindert. Weiterhin bestehen Mängel bei der Konzeption der Studien zur Nomogramm-Entwicklung, bei der Rekrutierung der Patienten und bei der Datenqualität.
Fazit: Die vorliegende Arbeit identifiziert die klinisch sinnvollsten und erprobten Nomogramme für den Einsatz in der Praxis (siehe Tabellen 1-9). Durch Fortschritte in Medizin und Technik können Nomogramme mit Hilfe von hochqualitativen Daten sowie einheitlicher Qualitätsstandards zur Entwicklung und Etablierung dieser in Zukunft einen wertvollen, klinisch sinnvollen Einsatz zur Verbesserung der Therapieentscheidung bei Patienten erfahren. Neue Biomarker, insbesondere auf Grundlage von Genomanalysen, sowie optimierte bildgebende Verfahren könnten zukünftig Bestandteil von Nomogrammen werden. Weiterhin sollte die Evaluation des klinischen Nutzens der Nomogramme sowie ein Vergleich der Modelle unter gleichen Bedingungen in Zukunft erfolgen, bevor diese im klinischen Alltag Anwendung finden.