Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2282)
- Contribution to a Periodical (2161)
- Book (2027)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (182)
Language
- German (14018) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5057)
- Medizin (1514)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Innerhalb der Gentrifizierungsforschung analysiert die Rent‑Gap‑Theorie, wie kleinräumige Differenzen zwischen gegenwärtigen Verwertungsbedingungen einerseits sowie Erwartungen auf zukünftig steigende Mieten andererseits Verdrängungsprozesse antreiben. Dementgegen hat Eric Clark (2014) jüngst eingefordert, dass die Stadtforschung den Blick verstärkt darauf richten müsse, wie Verdrängung verhindert werden kann. Diesen Appell aufgreifend, zeigen wir bezogen auf den deutschen Kontext, inwiefern mietrechtliche Regularien, stadtplanerische Entscheidungen und die jeweilige Eigentümerstruktur wesentlich darüber entscheiden, ob sich ein immobilienwirtschaftlicher Verwertungsdruck auch tatsächlich in Verdrängungsprozesse übersetzt. Illustriert wird dies am Wandel der Eigentümerstruktur im Frankfurter Gallus seit den 1970er Jahren. Deutlich wird dabei, dass Gentrifizierung kein Naturgesetz darstellt, sondern ein zutiefst politischer Prozess ist, der sich effektiv verhindern lässt.
Diese Untersuchung basiert auf eine jahrelange Erfahrung des Verfassers in der Arbeit mit Kindern und Jugendlichen aus Armutsverhaltnissen innerhalb von Nichtregierungs-organisationen in Pernambuco/Brasilien. Als Grundlagen wird zunächst die Lebenserfahrung von verarmten Kindern und Jugendlichen im sozialen Alltag diskutiert. Dabei wird unser Blick auf deren Handeln als soziale Subjekte und Protagonisten gerichtet. Als weiteres wird die Entwicklung von Prinzipien einer Bildung durch Arbeit als sozialerzieherisch Konzept auf einem befreiungspadaegogischen Hintergrund (Educação Popular) dargestellt. Dazu werden einige Aspekt zu dem ganzheitlichen Verstandinis von Bildung als Gemeinschaftserfarung erortet. Die anschließende Auseinander setzung mit den Autoren Karl Marx, Antônio Gramisci, anton Seminióvith Makarenko, Celestin Freinet und Paulo Freire versteht sich als Beitrag zur Diskussion der Konzepts Bildung durch Arbeit in Einigen leitenden Prinzipien. Die in der nun folgende Fallstudie verwandten Daten wurden anhand einer Aktionsforchung (Pesquisa-ação) erhoben. Nach der Beschreibung der Hauptmerkmale und Konzepte der sozialerzieherischen Arbeit von fünf Bildungsprojekten in Pernambuco, werden die Lern und Arbeitswerkstatten in Hinsicht auf die Wissensproduktion und den Kompetenzerwerb analysiert. Dabei werden die humanitäre, gemeinschaftsbildende, Bildungsbezogene, kulturelle und entwicklungszogene Dimensionen dieses Wissens hervorgehoben.Im folgenden werden Fragen für den schulischen Bereich aufgeworfen. Abschließend werden Perspektiven und Vorschage zum weiteren Denken und Handeln über das Forchungsthema aufgezeigt.
Sissi im Film
(2018)
Die Straßen deutscher Städte werden überwiegend vom Automobil dominiert, was nicht nur die gebaute Umwelt prägt, sondern auch die politischen Entscheidungen beeinflusst, wenn es um die Verteilung des Straßenraumes geht. Dass jedoch am Anfang der Mobilität das Zufußgehen steht und ein gut geplanter städtischer Fußverkehr nicht nur einen Beitrag zur Sicherheit der Fußgänger*innen leistet, sondern auch die Zukunft urbaner Mobilität gewährleistet, wird oft vergessen. Obwohl der Fußverkehr zahlreiche Potentiale bietet, bekommt er im öffentlichen Raum deutlich weniger Entfaltungsspielraum zur Verfügung gestellt. Die Zufußgehenden werden dort häufig kanalisiert und an den Rand gedrängt, was Einfluss auf ihr Verhalten nimmt. Diese Marginalisierung der Fußgänger*innen wird zusätzlich hervorgerufen durch eine geringe Beachtung jener in der städtischen Planung und Politik sowie in der Wissenschaft und Gesellschaft. Demnach stehen sie im Konfliktverhältnis zur persistenten und sozial konstruierten Struktur der Straße.
Die vorliegende Untersuchung überprüft, warum die Fortbewegung zu Fuß in der gebauten Straßenumwelt und ihrer Raumaufteilung im Vergleich zu anderen Verkehrsmitteln eine untergeordnete Rolle spielt und welchen Einfluss der planerische und politische Umgang und die Gestaltung des Straßenraumes darauf nimmt. Dies geschieht mittels eines Fallbeispiels in Frankfurt am Main, der Schweizer Straße. Im Rahmen der Studie werden Ergebnisse aus teilnehmenden Beobachtungen der Zufußgehenden der Schweizer Straße und deren Verhaltensweisen im öffentlichen Straßenraum sowie aus qualitativen Interviews mit Expert*innen der gebauten Straßenumwelt Frankfurts zusammengetragen. Das übergeordnete Ziel der Arbeit ist, ein Verständnis für die Wechselwirkung zwischen Raumstruktur, planerischem Einfluss und Mobilität zu entwickeln sowie die Konflikte der Raumaufteilung für die Fußgänger*innen herauszuarbeiten, um den Fußverkehr gezielter fördern zu können.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Diabetes-assoziierte Fußulzerationen (diabetic foot ulcerations, DFU) repräsentieren eine schwerwiegende klinische Komplikation der Wundheilung. Bislang sind pharmakologische Behandlungsansätze diabetischer Wundheilungsstörung unzureichend und limitiert. Der Erkenntnismangel der zugrundeliegenden zellulären und molekularen Mechanismen gestörter Wundheilung ergänzt die unzufrieden stellende klinische Situation. In den vergangenen Jahren sind vermehrt zelluläre Wundverbände in den klinischen Fokus gerückt. Sie ermöglichen eine individuelle, dynamische Wundbehandlung und haben in den ersten klinischen Studien vielversprechende Ergebnisse gezeigt.
In der vorliegenden Arbeit ist ein zellulärer Wundverband der Firma Boehringer Ingelheim genutzt worden, um die Wundheilung in diabetischen db/db-Tieren zu analysieren. Der Wundverband (BAWD; biological active wound dressing) besteht aus humanen Keratinozyten, die auf einer Hyaluronsäure-haltigen Matrix kultiviert werden.
Nach topischer Anwendung der lebenden Wundauflage war eine Interaktion humaner Keratinozyten mit murinem Wundgewebe zu beobachten. Die gestörte diabetische Wundheilung in der db/db-Maus war nach BAWD-Behandlung in einem um 30 % verbesserten Wundverschluss und dem Aufbau qualitativ neuen Gewebes deutlich verbessert.
Aufgrund der unverändert hohen Expression von Zyto- und Chemokinen in der frühen und späten Heilungsphase wurde eine Dämpfung der Immunantwort ausgeschlossen. Vielmehr war eine BAWD-vermittelte differenzielle Immunzellverteilung festzuhalten. Zudem zeigten Whole-Genom-Sequenzanalysen eine BAWD-induzierte Expression von Genen auf, die regenerative M2-ähnliche M[Phi] charakterisieren.
Außerdem scheint die BAWD-Anwendung nach Auswertung immunhistochemischer Daten und über die signifikant erhöhte CD29-, CD44- und Sca1-mRNA-Expression die Rekrutierung heilungsfördernder MSCs zu begünstigen, denen ein potentiell anti-entzündlicher Charakter zugesprochen wird.
In dieser Arbeit konnte zudem ein neuer Regelkreis kutaner Wundheilung beschrieben werden, der auf Basis der Expression muskelspezifischer Faktoren und der transienten Ausbildung kontraktiler Elemente in der Wunde normal heilender Tiere beruht, die bislang nicht beschrieben wurden. Interessanterweise induzierte eine BAWD-Anwendung die Expression muskelspezifischer Gene und Proteine in der Wundheilung diabetischer Tiere. Möglicherweise stellt die Ausbildung kontraktiler Elemente neben der Differenzierung von Fibroblasten zu Myofibroblasten eine ergänzende Komponente für einen beschleunigten Wundverschluss dar. Diese Befunde eröffnen neue Möglichkeiten zu Verständnis und Therapie diabetischer gestörter Wundheilung im humanen Organismus.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Mehr als 6.600 Doktorandinnen und Doktoranden forschen an der Goethe-Universität Frankfurt am Main. Das und vieles mehr ergab die erste repräsentative Umfrage unter Promovierenden und ihren Betreuern, die im Auftrag der Universität durch das Berliner Institut für Forschungsinformation und Qualitätssicherung (iFQ) durchgeführt wurde. Das gute Ergebnis ist nicht zuletzt auf GRADE, die Goethe Graduate Academy, zurückzuführen, dem universitätsübergreifenden Zentrum für die Doktorandenausbildung. ...
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Der Name Histamin hat seinen Ursprung aus dem griechischen Wort "histos" (Gewebe) und spielt auf sein breites Spektrum an Aktivitäten, sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen an. Histamin ist eines der Moleküle mit welchem man sich im letzten Jahrhundert am intensivsten beschäftigt hat.
Im Jahr 1907 wurde das Histamin erstmals synthetisiert. Drei Jahre später gelang es, dieses Monoamin erstmals aus dem Mutterkornpilz Claviceps purpurea zu isolieren. Weitere 17 Jahre vergingen, ehe Best et al. Histamin aus der humanen Leber und der humanen Lunge isolieren konnten. Best konnte somit beweisen, dass dieses biogene Amin einen natürlichen Bestandteil des menschlichen Körpers darstellt. Nach der Entdeckung wurden dem Histamin mehrere Effekte zugeschrieben. Dale et al. beobachteten, dass Histamin einen stimulierenden Effekt auf die glatte Muskulatur des Darms und des Respirationstraktes hat, stimulierend auf die Herzkontraktion wirkt, Vasodepression und ein schockähnliches Syndrom verursacht.
Popielski demonstrierte, dass Histamin dosisabhängig einen stimulierenden Effekt auf die Magensäuresekretion von Hunden hat. Lewis wiederum beschrieb erstmals, dass Histamin einen Effekt auf der Haut hervorruft. Dies zeigte sich durch verschiedene Merkmale, wie geröteter Bereich aufgrund der Vasodilatation und Quaddeln aufgrund der erhöhten Gefäßpermeabilität. Des Weiteren wurde Histamin eine mediatorische Eigenschaft bei anaphylaktischen und allergischen Reaktionen zugeschrieben. Zusätzlich spielt das biogene Amin eine entscheidende Rolle im zentralen Nervensystem (ZNS), unter anderem beim Lernen, bei der Erinnerung, beim Appetit und beim Schlaf-Wach-Rhythmus. Von den zahlreichen physiologischen Effekten des Histamins ist seine Rolle bei Entzündungsprozessen, der Magensäuresekretion und als Neurotransmitter am besten verstanden.
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
Im Schulunterricht der deutschen Gymnasien hat die Vermittlung poetologischen Wissens im 19. Jahrhundert einen besonderen Platz eingenommen. Dabei wurde das Gebiet der Poetik jedoch sehr unterschiedlich dargestellt. Zum einen war die Poetik, die Lehre der Dichtkunst, seit dem 18. und während des gesamten 19. Jahrhunderts fortlaufend Veränderungen und Repositionierungen unterworfen. Zum anderen formte und entwickelte sich der moderne Deutschunterricht in dieser Zeit, stark beeinflusst durch die zeitgeschichtlichen Tendenzen der Verwissenschaftlichung, der Fächerdifferenzierung und der Nationalideologien. Als Konstante lässt sich jedoch über das gesamte Jahrhundert hinweg eine hohe Wertschätzung der Poetik als Unterrichtsfach erkennen. Daher wurden von Schulbuchverlagen von Beginn des 19. und bis in die 20er Jahre des folgenden Jahrhunderts hinein didaktische Poetiken veröffentlicht, die eine sehr lange und weite schulische Verwendung fanden.
In der hier vorgelegten Arbeit werden anhand einer Auswahl dieser Schulpoetiken die Grundargumente des Diskurses über Poetik herausgearbeitet und untersucht, wie sich diese im Laufe des Jahrhunderts veränderten. Dadurch wird eine Grundlage dafür geschaffen, das als gültig wahrgenommene Wissen über Form und Wesen der Literatur zu rekonstruieren, das sowohl die Leser aber auch die Schriftsteller beeinflusst hat, die aus den Schülergenerationen zwischen 1830 und 1920 stammen.
Aufgrund einer hohen Inzidenz und einer ungünstigen Prognose stellt die Behandlung von Patienten mit lebermetastasierten kolorektalen Karzinomen eine große Herausforderung in der klinischen Routine dar. Weiterhin sind die chirurgische Resektion und eine systemische Chemotherapie die Standards in der Behandlung dieser Patienten. Allerdings kommen viele Patienten für eine chirurgische Therapie aufgrund einer fortgeschrittenen Lebermetastasierung nicht in Frage. Eine relativ hohe Rezidivrate nach operativer Metastastenentfernung und ein Tumorprogress unter systemischer Chemotherapie stellen ein weiteres Problem dar.
Sind konventionelle Therapien ausgeschöpft, können von Seiten der interventionellen Radiologie eine Reihe minimal-invasiver Therapiemöglichkeiten angeboten werden.
Nach Zugang über die Arteria femoralis superficialis erfolgt bei der transarteriellen Chemoembolisation (TACE) unter angiographischer Kontrolle eine lokale Applikation von Chemotherapeutika und Embolisate in Blutgefäße von Lebermetastasen. Bei der perkutanen thermischen Ablation erfolgt eine Punktion von Lebermetastasen Computertomografie-gesteuert mit nachfolgender Tumordestruktion durch Hitze. Diese beiden Therapieverfahren können auch je nach klinischer Ausgangslage miteinander kombiniert werden.
Die vorliegende Arbeit umfasst 452 Patienten mit nicht-reseziebaren Lebermetastasen kolorektaler Metastasen die sich einer Therapie mittels TACE in 4-wöchigen Intervallen unterzogen. Dabei wurden 233 Patienten palliativ nur mit TACE behandelt, während 219 Patienten neoadjuvant mit TACE behandelt wurden, bevor eine perkutane thermische Ablation, entweder in Form einer Mikrowellenablation oder Laserablation durchgeführt wurde. Für beide Patientengruppen wurden das mediane Gesamtüberleben sowie das progressionsfreie Überleben ab der ersten TACE berechnet. Für beide Überlebenszeiten wurden ferner verschiedene Faktoren getestet, die potentiell eine prognostische Aussagekraft haben. Es wurde auch getestet auf welche Kombination an Chemotherapeutika das beste Ansprechen nach TACE erzielt wird.
Des Weiteren wurden von 34 Patienten gezielt 55 Lebermetastasen mit Diffusions-gewichteter MRT-Bildgebung (DWI) untersucht. Durch Dokumentation eines aus der DWI errechneten ‚apparenten Diffusionskoeffizienten‘ (ADC) wurde getestet ob damit eine Vorhersage über das Therapieansprechen erfolgen kann.
Einen Monat nach der ersten TACE zeigten 7 Metastasen ein Therapieansprechen, wobei kein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit und ohne Therapieansprechen bestand (p=0,94).
Drei Monate nach der ersten TACE zeigten 17 Metastasen ein Therapieansprechen. Es bestand ein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit (median 1,08x10-3mm²/s) und ohne Therapieansprechen (median 1,30x10-3mm²/s). Dabei zeigten prätherapeutische ADC Werte einen mäßigen Vorhersagewert für das Therapieansprechen (AUC 0,7).
Bei Metastasen die ein Therapieansprechen nach 3 Monaten zeigten wurde ein signifikanter Anstieg von ADC Werten beobachtet (p<0,001).
Mit einer Sensitivität von 77% und einer Spezifität von 74% konnte ein Ansprechen nach drei TACE Sitzungen vorhergesagt werden, wenn es zu einem Anstieg der ADC Werte um 12,17% kam (AUC 0,817). Zudem wurde eine starke und signifikante Korrelation zwischen dem prozentualen Anstieg der ADC Werte und einer prozentualen Größenänderung der Lebermetastasen beobachtet werden (r=0,651, p<0,001).
Die palliativ mit TACE behandelten Patienten zeigten ein Gesamtüberleben von 12,6 Monaten und ein progressionsfreies Überleben von 5,9 Monaten. Dagegen lag das Gesamtüberleben und das progressionsfreie Überleben der neoadjuvant behandelten Patienten mit folgender thermischen Ablation bei 25,8 und 10,8 Monaten.
Die Unterschiede im Gesamtüberleben und progressionsfreien Überleben zwischen den beiden Gruppen waren statistisch signifikant (p<0,001).
Extrahepatische Metastasten vor Therapie mit TACE waren ein signifikanter prognostischer Einflussfaktor in der Überlebensanalyse der neoadjuvant und palliativ therapierten Gruppe. Anzahl, Größe und Lokalisation waren ferner signifikante Faktoren für das Gesamtüberleben und progressionsfreie Überleben der neoadjuvanten Kohorte. Geschlecht, Lokalisation des Primärtumors, T- und N- Stadien des TNM-Klassifikationssystem des Primärtumors, zeitliches Auftreten der Lebermetastasen, Ablationsmethode und Patientenalter hatten keinen Einfluss auf das Überleben in beiden Kohorten. Das beste Ansprechen auf TACE wurde bei einer Verwendung einer Dreifachkombination von Chemotherapeutika beobachtet (p=0,021).
Zusammenfassend zeigt die Arbeit, dass die TACE eine effektive Therapie bei Lebermetastasen kolorektaler Karzinome darstellt. Eine Messung von ADC Werten erscheint ein potentieller Biomaker für das Ansprechen von Lebermetastasen zu sein.
Hintergrund: Obgleich die Carotisstentimplantation inzwischen eine etablierte Alternative zur Carotisendarterektomie geworden ist, existieren jedoch nur wenige Studien über Langzeitergebnisse nach Carotisstentimplantation.
Methoden: Zwischen Juli 1993 und August 2005 wurden fortlaufend alle Patienten nach einseitiger Carotisstentimplantation in diese Studie eingeschlossen, welche keine signifikante kontralaterale Stenose hatten. Eine Follow-up Untersuchung mittels Duplexsonographie und/oder Angiographie sowie eine neurologische Untersuchung erfolgten nach sechs und/oder zwölf Monaten. Danach wurden jährlich Fragebogen an die Patienten beziehungsweise den zuständigen Hausarzt verschickt.
Ergebnisse: Eine Carotisstentimplantation erfolgte bei 279 Patienten. In 99% der Eingriffe war die Stentimplantation erfolgreich. Die periprozedurale major und minor Schlaganfallrate lag bei 2.2%. Die periprozedurale major stroke oder Todesrate lag bei 2.9%. Im Median betrug die klinische Follow-up Zeit 49 ± 32 Monate (Spannbreite: 30 Tage bis 12.1 Jahre). Ausgenommen perioperativer (<30 Tagen) Ereignisse, lag die jährliche major und minor Schlaganfallrate bei 1.3% und die jährliche ipsilaterale major und minor Schlaganfallrate bei 0.6%. Bei den symptomatischen und asymptomatischen Patienten betrugen die jährliche major und minor Schlaganfallraten 2.2% und 0.8% und die ipsilaterale major und minor Schlaganfallraten lagen bei 1.1% und 0.3%. Im Hinblick auf die Langzeitergebnisse gab es keinen signifikanten Unterschied zwischen den ipsilateralen und kontralateralen Schlaganfallraten. Bezüglich der Restenosen zeigte sich im sonographischen Follow-up (innerhalb 36 ± 32 Monaten) eine Rate für symptomatische Stenosen von 5% und für asymptomatische Stenosen von 3%.
Schlussfolgerung: Unsere Studie zeigt eine sehr niedrige cerebrale Langzeitereignisrate nach Carotisstentimplantation. Die Sicherheit dieses Verfahrens konnte somit auch über einen langen Zeitraum bekräftig werden. Erwähnenswert ist hierbei, dass es keinen signifikanten Unterschied zwischen den Langzeitergebnissen von ipsilateralen und kontralateralen cerebralen Ereignissen gab, was die Hypothese der Plaque Stabilisation nach Carotisstentimplantation bestärkt.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Photolabile Schutzgruppen haben sich im Laufe der letzten Jahre als wertvolle Werkzeuge für die Untersuchung und Regulation biologischer Prozesse etabliert. Dabei wird die photolabile Schutzgruppe auf geeignete Weise mit Biomolekülen verknüpft, sodass deren Funktion temporär deaktiviert wird. Durch Bestrahlen mit Licht geeigneter Wellenlängen wird die photolabile Schutzgruppe entfernt und die Aktivität des Biomoleküls bzw. des zu beobachtenden Prozesses wiederhergestellt. Die Grundlagen der Verwendung photolabiler Schutzgruppen im biologischen Kontext wurden in zwei Pionierarbeiten 1977 von J.W. ENGELS und 1978 von J.F. HOFFMAN gelegt. Davon ausgehend haben sich zahlreiche Anwendungen photolabiler Schutzgruppen für biologisch interessante Molekülklassen entwickelt. Auf dem speziellen Gebiet der Nukleinsäuren wurden in den letzten Jahren einige fundamentale Mechanismen entdeckt und aufgeklärt, die nicht zuletzt auch therapeutisch interessante Anwendungsmöglichkeiten für photolabile Schutzgruppen bieten. Hierbei stellt das An-/Aus-Schaltverhalten von Nukleinsäuren jedoch ein nicht-triviales Problem dar. Selbst der gezielte Einbau einer einzelnen photolabilen Schutzgruppe in ein multifunktionales Oligonukleotid führt in der Regel nämlich nicht zu einer vollständigen Deaktivierung dessen. Ein multipler Einbau photolabiler Schutzgruppen entlang der Sequenz eines funktionellen Oligonukleotids schaltet die Hintergrundaktivität im deaktivierten Zustand zwar vollständig aus, allerdings müssen in diesem Fall hohe Bestrahlungsintensitäten bzw. –dauern für das Entfernen aller photolabilen Modifikationen angewendet werden. Dadurch geht zum einen die Zeitauflösung der lichtgeschalteten Prozesse verloren, nicht zuletzt erhöht sich dabei aber auch das Risiko von lichtinduzierten Schäden am biologischen System. Das Kernthema der vorliegenden Dissertation war es daher, neue Architekturen für den Aufbau photoaktivierbarer Oligonukleotide zu entwickeln.
Das erste große Projekt basierte auf der Annahme, dass sich Duplexstrukturen, die für die Funktion vieler Nukleinsäuremechanismen fundamental sind, durch Zyklisierung von Oligonukleotiden global destabilisieren und damit effizienter photoaktivieren lassen, als durch lokalen Einbau einzelner photolabiler Schutzgruppen in Oligonukleotide. Hierzu wurden geeignete Alkin-Modifikationen an photolabile Nitrobenzyl- und Cumarin-Schutzgruppen angebracht und diese an die Nukleobasen verschiedener DNA-Bausteine geknüpft. Es ist daraufhin gelungen, Oligonukleotide mit je zwei photolabilen Alkin-Modifikationen herzustellen und diese intrasequentiell über eine Cu(I)-katalysierte Click-Reaktion mit einem Bisazid-Linker zu zyklisieren. Die so erhaltenen Oligonukleotide wiesen dramatisch erniedrigte Schmelzpunkte gegenüber den nativen Duplexen, sowie gegenüber den zweifach photolabil geschützten Oligonukleotiden auf. Dabei wurde außerdem festgestellt, dass Zyklisierungsparameter wie die Linkerlänge, -polarität und –flexibilität und die Wahl der photolabilen Schutzgruppe keinen signifikanten Einfluss auf die Duplexstabilität hat. Über einen Bereich von Ringgrößen zwischen ca. 11-21 Nukleotiden wurden die niedrigsten Duplexstabilitäten beobachtet. Sehr kleine, sowie große Ringe ab 30 Nukleotiden wiesen dagegen höhere Stabilität auf.
Da mit dem entwickelten Zyklisierungskonzept auch mehrere Ringstrukturen innerhalb einer Oligonukleotidsequenz aufgebaut werden können, wurde im nächsten Schritt eine photoaktivierbare Variante des C10-Aptamers hergestellt, welches selektiv gegen Burkitt’s Lymphomzellen bindet. Dieses 90-mer DNA-Oligonukleotid wurde an drei Stellen photolabil Alkin-modifiziert und infolge mit einem Trisazid-Linker zu einer bizyklisierten Struktur verknotet. Mit Hilfe von Fluoreszenzmikroskopie-Experimenten konnte demonstriert werden, dass das durch eine solche „Photo-Klammer“ deaktivierte C10-Aptamer keine Bindungsaffinität gegenüber Burkitt’s Lymphomzellen aufweist, die Bindungsaktivität jedoch nach Belichten wiederhergestellt werden kann. Mit Atomkraftmikroskopie-Experimenten ist es darüber hinaus gelungen, die Photoaktivierung des verknäuelten C10-Aptamers mit molekularer Auflösung abzubilden. Mit diesem Ergebnis können nun lange funktionelle Oligonukleotide auf definierte Weise photoaktivierbar gestaltet werden, insbesondere auch dann, wenn keine (Informationen über) funktionelle Sekundärstrukturen existieren.
...
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Das Ziel der vorliegenden publikationsbasierten Dissertation liegt darin, ein Erhebungskonzept zu entwickeln, das es erlaubt, ICT-Skills – das heißt Fertigkeiten für das Lösen von Aufgaben in einer Informations- und Kommunikationstechnologie-Umgebung – theoretisch fundiert zu erheben sowie die Validität der intendierten Testwerteinterpretation empirisch zu untersuchen. Die Testwerte sollen als ICT-spezifische Fertigkeiten höherer Ordnung interpretiert werden.
Für die Erfassung von ICT-Skills kann auf keine lange Forschungstradition zurückgegriffen werden. Daher ist es das Ziel der ersten Arbeit, eine Rahmenkonzeption zur Messung von ICT-Skills zu erstellen. Dabei werden drei Ziele verfolgt: Erstens soll für die Itementwicklung spezifiziert werden, auf welchen generischen und ICT spezifischen Fertigkeiten ICT-Skills basieren. Mithilfe etablierter psychologischer Theorien aus den relevanten Fertigkeitsbereichen werden kognitive Schwierigkeiten bei der Bewältigung von ICT-Aufgaben beschrieben, die als Grundlage für die Entwicklung der Items dienen. Zweitens werden für die Implementierung der Items Rationale für deren Erstellung in einer simulationsbasierten Umgebung formuliert, die es erlauben sollen, die intendierten kognitiven Prozesse realitätsnah in den Items abzubilden. Obgleich diese Arbeit einen konzeptionellen Fokus hat, besteht das dritte Ziel darin, die Rahmenkonzeption empirisch zu erproben, um zu beurteilen, ob die Rahmenkonzeption zur Itementwicklung und -implementierung geeignet war.
Aus der Rahmenkonzeption, die ein breites Spektrum relevanter ICT-Aufgaben für die Erfassung sowie eine simulationsbasierte Erhebung vorsieht, resultieren sehr heterogene Items. Deshalb unterscheiden sich ICT-Skills-Items von eher homogenen Itempools, wie sie typischerweise zur Erfassung von Konstrukten der psychologischen Leistungsdiagnostik, etwa zur Intelligenzdiagnostik, verwendet werden. Aus diesem Grund ist für die Konstruktvalidierung der Testwerteinterpretation, die das Ziel der zweiten und dritten Arbeit darstellt, zunächst konzeptionelle Forschungsarbeit nötig, um angemessene Validierungsstrategien für heterogene Items zu entwickeln. Diese in der zweiten und dritten Arbeit erforderlichen konzeptionellen Beiträge bedingen die Struktur dieses Rahmentextes, in dem zunächst die konzeptionellen Beiträge aller drei Arbeiten vorgestellt und anschließend alle empirischen Ergebnisse berichtet werden. Die konzeptionellen Entwicklungen für die Validierung der intendierten Interpretation der Testwerte orientieren sich an Vorgehensweisen der psychologischen Leistungsdiagnostik, der nomothetischen Spanne und der Konstruktrepräsentation (vgl. Embretson, 1983). Mit diesen wird untersucht, inwiefern sich die zentralen Annahmen der Rahmenkonzeption aus der ersten Arbeit, nämlich die bei der Aufgabenlösung involvierten Fertigkeiten und kognitiven Prozesse, in den Testwerten widerspiegeln.
Das Ziel der zweiten Arbeit besteht darin, die nomothetische Spanne von ICT-Skills zu untersuchen und den postulierten Zusammenhang mit generischen und ICT-spezifischen Fertigkeiten empirisch zu untersuchen. Neben dem klassischen Ansatz, der Zusammenhänge über alle Items hinweg betrachtet, wird das Zusammenspiel verschiedener Fertigkeiten auch auf Itemebene analysiert. Darüber hinaus sollen potentielle Variationen in den Zusammenhängen über die sehr heterogenen Items durch Merkmale erklärt werden, welche für diese Heterogenität bezeichnend sind. Die empirischen Ergebnisse dienen – basierend auf den in der Rahmenkonzeption definierten Fertigkeiten – als Evidenzen für die Validität der Testwerteinterpretation.
Das Ziel der dritten Arbeit ist es, die Konstruktrepräsentation zu untersuchen, indem Evidenzen für die intendierten kognitiven Prozesse in der Itembearbeitung gesammelt werden. Klassischerweise werden in homogenen Itempools Itemmerkmale zwischen Items verglichen und wenn möglich quantifiziert, um die Schwierigkeit in Items zu beschreiben. Da die Items sehr heterogen sind, wurden zwei experimentelle Ansätze entwickelt, die diese kognitiven Prozesse in Itemvarianten verändern oder eliminieren. Die Auswirkungen dieser Manipulationen werden in Bezug auf die Itemschwierigkeit und den Zusammenhang mit anderen Konstrukten untersucht. Verändert werden die in der Rahmenkonzeption abgeleiteten schwierigkeitsdeterminierenden Merkmale, um zu untermauern, dass die ICT Skills Items ICT-spezifische Fertigkeiten erfordern. Eliminiert werden alle Merkmale die Fertigkeiten höherer Ordnung erfordern sollten. Mit diesen experimentellen Strategien können die zentralen Punkte der intendierten Testwerteinterpretation untersucht werden.
Neben den empirischen Ergebnissen zur Untermauerung der intendierten Testwerteinterpretation für den entwickelten ICT-Skills-Test ist der Erkenntnisgewinn dieser Arbeit auch in den konzeptionellen Beiträgen zu sehen. Mit diesen wurde exemplarisch gezeigt, wie ein Konstrukt wie ICT-Skills erfasst werden kann, indem man sich an den Vorgehensweisen der psychologischen Leistungsdiagnostik orientiert und dabei auf Annahmen kognitiver Prozesse zurückgreift.
In der vorliegenden Arbeit sollte der Einfluss von langjährigem Lastkraftwagenfahren auf die posturale Kontrolle untersucht werden. Hierzu wurden die Auswirkungen verschiedener Einflussfaktoren, die mit langjährigem Lastkraftwagenfahren assoziiert sind, im Hinblick auf die posturale Kontrolle analysiert. In diesem Rahmen wurden auf einer Autobahnraststätte in Deutschland 180 (179m/1w) Lastkraftwagenfahrer im Alter von 21 bis 65 Jahren mit einer Berufserfahrung von 1 bis 45 Jahren untersucht. Mit Hilfe eines Fragebogens wurden Informationen über die Arbeitszeit und den Gesundheitszustand der Lastkraftwagenfahrer, wie beispielsweise bestehende Rückenschmerzen oder Sportverhalten, erhoben. Für die Messung der Parameter der posturalen Kontrolle in habitueller Standposition wurde die Druckmessplatte GP Multisens der Firma GeBioM (Münster, Deutschland) verwendet. Es wurde die prozentuale Druckverteilung im Vorfuß-Rückfußbereich für den linken und rechten Fuß gemessen. Des Weiteren konnte die Körperschwankung in frontaler (anterior/posterior) und sagittaler (medial/lateral) Ebene aufgezeichnet werden. Dadurch lassen sich unter anderem Rückschlüsse auf eine Verlagerung des Körperschwerpunktes ziehen. Die statistische Auswertung erfolgte mit Hilfe des Statistikprogrammes BiAS Version 11.0 (2015). Die erhobenen Daten wurden unter Verwendung des Kolmogoroff-Smirnoff-Lillifors-Tests auf Normalverteilung getestet. Das Signifikanzniveau lag bei α=5%. Daneben wurde ein zweiseitiges 95%-Konfidenzintervall sowie der Toleranzbereich der Daten berechnet. Da keine Normalverteilung der Daten vorlag, wurde der Kruskal Wallis Test mit anschließender Bonferoni-Holm Korrektur zum Vergleich der Daten eingesetzt. Die Korrelationen wurden durch einfache, lineare Korrelation nach Pearson oder Rang-Korrelation nach Spearman & Kendall berechnet. Die Studienteilnehmer wurden zusätzlich gemäß ihres BMI, ihrer bereits als Lastkraftwagenfahrer geleisteten Arbeitsjahre, nach bestehenden Rückenschmerzen und nach sportlicher Betätigung jeweils verschiedenen Gruppen zugeordnet. Die Gruppen wurden anschließend hinsichtlich der gemessenen Parameter miteinander verglichen. In Bezug auf ein zunehmendes Alter konnte eine signifikant zunehmende sagittale Schwankung (p ≤ 0,01) sowie eine erhöhte Belastung des rechten Fußes (p ≤ 0,01) gemessen werden. Im Vergleich zwischen normalgewichtigen und übergewichtigen Lastkraftwagenfahrern zeigten sich signifikante Unterschiede hinsichtlich der gemessenen Parameter der posturalen Kontrolle. Es konnte beobachtet werden, dass es mit zunehmenden BMI zu einer erhöhten Schwankung in frontaler (p ≤ 0,04) und sagittaler (p ≤ 0,001) Ebene kommt. Hinsichtlich der Fußdruckbelastung kam es zu keinen signifikanten Veränderungen zwischen den BMI-Gruppen. Lastkraftwagenfahrer mit mehr Arbeitsjahren zeigten erhöhte frontale und sagittale Körperschwankungen. Es lag eine signifikante, positive Korrelation zwischen der frontalen Schwankung und einer Zunahme der Arbeitsjahre (p ≤ 0,04) vor. Auch bei der sagittalen Schwankung bestand eine signifikante Korrelation (p ≤ 0,01). Lediglich bei der Belastung des rechten Vorfußes konnte eine signifikante Korrelation nachgewiesen werden (p ≤ 0,01), während bei den anderen Parametern der Fußbelastung keine signifikante Korrelation belegt werden konnte. Im Gruppenvergleich nach Arbeitsjahren zeigte sich, dass mit ansteigenden Arbeitsjahren als Lastkraftwagenfahrer zu einem Anstieg des BMI kommt. Im Vergleich von Lastkraftwagenfahrern mit und ohne Rückenschmerzen waren keine signifikanten Unterschiede bei den gemessenen Parametern der posturalen Kontrolle nachweisbar. Auch bei der Analyse des Einflusses von sportlicher Aktivität auf die posturale Kontrolle konnte kein Unterschied zwischen der Gruppe mit sportlicher Aktivität und ohne sportliche Aktivität gemessen werden.
Mit dieser Studie konnten die gesundheitsgefährdenden Einflüsse des Lastkraftwagenfahrens auf die posturale Kontrolle nachgewiesen werden. Vor allem das langjährige Sitzen und der erhöhte BMI haben einen Einfluss auf die Körperstabilität und stören die Kompensationsmechanismen der Aufrechterhaltung der posturalen Kontrolle. Die genauen Steuerungsmechanismen der Körperstabilität sind sehr komplex und wurden in dieser Studie nicht im Einzelnen analysiert. Um welche konkreten Strukturen es sich handelt, die durch das langjährige Lastkraftwagenfahren gestört werden, kann mit den Ergebnissen dieser Studie nicht erfasst werden.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Berufsmusiker haben durch spezifische körperliche und psychische Belastung ein erhöhtes Risiko im Laufe ihres Lebens an einer CMD zu erkranken.
Mehrere Stunden täglich nehmen vor allem Orchestermusiker eine sitzende Zwangshaltung ein und führen immer wieder die gleichen, einseitigen Bewegungsmuster durch. Leistungsdruck und Lampenfieber können zusätzlich zu Muskelverspannungen und Bruxismus führen. Beides hat direkte oder indirekte Auswirkungen auf das CMS. Einseitige sitzende Körperhaltung und Bewegung belasten den ganzen Bewegungsapparat. Bläser und Streicher üben zusätzlich Druck auf Zähne und Kiefer aus, indem sie beim Halten und Spielen ihres Instrumentes direkten Kontakt zum CMS herstellen. Unbewusstes Pressen und Knirschen mit den Zähnen belastet Kiefer und Kiefergelenk in hohem Maße.
Leider gibt es bisher nur wenig aussagekräftige Literatur, in der der eindeutige Zusammenhang zwischen dem Spielen eines Musikinstrumentes und der Entstehung einer CMD belegt wird. Um Prävention betreiben zu können und um bestehende Beschwerden behandeln zu können, ist es dringend notwendig, das Thema „Musiker und CMD“ eingehender zu untersuchen.
Im Rahmen der vorliegenden Arbeit wurden 32 Musiker des hr-Sinfonieorchesters befragt und untersucht. Die Musiker wurden zum Vergleich in zwei Gruppen eingeteilt. Gruppe 1 bestand aus hohen Streichern wie Geigern und Bratschern. Gruppe 2 bestand aus Bläsern und allen anderen möglichen Musikern des Orchesters. Es wurden mittels Abdrucknahme Modelle von Ober- und Unterkiefer hergestellt. Durch dreidi-mensionale Zuordnung der Kiefer in angenommener Zentrik und im Vergleich dazu in maximaler Interkuspidation wurde eine Kondylenpositionsanalyse durchgeführt. Die gesamte Gruppe der Musiker wurde mit einer Gruppe bestehend aus 48 gesunden jungen Nicht-Musikern im Alter zwischen 16 und 19 Jahren verglichen. Die Messdaten dieser Kontrollgruppe stammten aus der Habilitationsschrift „CMD bei Kindern und Jugendlichen“ (2004; Kopp, S.).
Es konnte festgestellt werden, dass die Position der Kondylen in den Kiefergelenken aller Musiker im Vergleich zur zentrischen Position verändert war, während dies bei der Kontrollgruppe nicht oder nur in geringem Umfang der Fall war. Die veränderte Position des Unterkiefers und seiner Gelenkenden stand im Zusammenhang mit einer veränderten Okklusion.
Daraus kann geschlossen werden, dass das langjährige, intensive Spielen eines Musikinstrumentes Auswirkungen auf Form und Stellung der Zähne sowie die Position der Kondylen im Kiefergelenk hat.
Die Veränderung fand auf der rechten und linken Seite in gleichem Maße statt. Eine Asymmetrie war also nicht festzustellen. Zudem stellte sich heraus, dass sich die Positionsänderung der Kondylen bei beiden Musikergruppen ähnlich darstellte. Angesichts der sehr unterschiedlichen, teils asymmetrischen Körperhaltungen ist dies erstaunlich. Im Schnitt fand bei allen Musikern eine Verlagerung der Kondylen nach kranial und dorsal statt.
Anhand der Ergebnisse kann die Schlussfolgerung gezogen werden, dass das intensive Spielen eines Musikinstrumentes das kraniomandibuläre System in hohem Maße belastet und zu langfristigen Veränderungen der beteiligten Strukturen führt. Die genaue Untersuchung der Ursachen sowie eine mögliche Beeinflussung des Wachstums von Musikern schon in jungem Alter als Grundlage für eine spätere CMD-Erkrankung sollten Gegenstand weiterer Studien sein.
Martin M. Winkler, University Professor und Professor of Classics an der George Mason University bei Washington D. C. (USA), wuchs in Deutschland bei Münster auf und ist ein versierter Kenner der griechischen und römischen Literatur, der antiken Mythologie und der römischen Geschichte. Insbesondere gilt dies jedoch für das seit einigen Jahren "entdeckte" und zunehmend mit zahlreichen Beiträgen auf internationaler Ebene beackerte Feld der Rezeptionsgeschichte, also der Beziehung zwischen antiker Realgeschichte und deren Verarbeitung in unterschiedlichen Medien. Schon immer war geschichtlicher Stoff Gegenstand eines umfangreichen Schrifttums in seinen verschiedensten Formen wie etwa von Geschichtsschreibung, Dokumentation, Dichtung oder Roman, aber auch von Libretti für das Theater, von Malerei, Musik oder monumentaler Architektur. Seit dem 20. Jahrhundert sind mit Film und Fernsehen sowie der digitalen Welt weitere Medien hinzugekommen, die ihrerseits mit unterschiedlichen Formaten eigene Zielgruppen bedienen. ...
Der Leittitel des hier zu besprechenden Buches mag zunächst überraschen, vielleicht auch befremden, in jedem Fall weckt er aber die Neugier einer potentiellen Leserschaft. Der Untertitel verdeutlicht dann das spezielle Anliegen, welches die Herausgeber mit der Veröffentlichung von Vorträgen einer ebenso betitelten interdisziplinären Tagung verbanden, die im September 2014 an der Rheinisch-Westfälischen Technischen Hochschule Aachen stattfand. Im kurzen Vorwort werden die beiden zentralen Ansätze, welche die Tagung verfolgte, erläutert: Zunächst sollten die nicht-narrativen Quellen zur Herrschaft des Antoninus Pius, deren Basis aufgrund mancher Entdeckungen und Aussagemöglichkeiten sich in der jüngeren Zeit beachtlich verbreitert hat, in den Mittelpunkt der Diskussion von Spezialisten unterschiedlicher Fachrichtung gerückt werden. ...
Zu Ciceros "Philippischen Reden" sind in den letzten Jahren mehrere Untersuchungen in monographischer Form vorgelegt worden, dabei zumeist philologisch-historische Kommentare, die von einem Text und einer Übersetzung begleitet werden. In ihrer Dissertation möchte K. H(edemann) das "Antoniusbild" in den Philippischen Reden Ciceros untersuchen. Die Einleitung verspricht, dass eine "differenzierte Charakterisierung des Antonius" (16) erfolgen soll und, so wenig später, ein "realitätsnaher Blick auf Antonius" (39). Auch dieses Ziel, die Entlastung der von Cicero diffamierten Persönlichkeit des Antonius, spielte bereits in verschiedenen Spezialstudien zu diesem Rede-Corpus eine wichtige Rolle. ...
Bei der hier vorzustellenden Publikation handelt es sich um eine Zusammenstellung von Aufsätzen des Autors zur Geschichte und Archäologie von Mainfranken in der Antike. Nur die Einführung "Römer, Germanen und der Main" (11-19) ist eine Erstveröffentlichung, in welcher der Untersuchungsraum näher vorgestellt wird: Zwar wird die Bedeutung des Mains, der stark gewunden ist, als Schifffahrtsweg in römischer Zeit als gering eingeschätzt, dennoch wurde über ihn sicherlich etliches Bauholz aus den Wäldern des Spessarts, Odenwalds und Steigerwalds an den Rhein transportiert. Auch als Verkehrsweg nach Germanien hinein spielte der Main keine große Rolle und man bevorzugte – so Steidl – eher den Landweg. Das Bemühen der Römer, hier eine Infrastruktur aufzubauen, endete mit der Varusschlacht; die Mainregion diente von nun an nur noch als Ressourcenquelle außerhalb des römischen Herrschaftsbereichs. ...
Seit Egon Flaigs bahnbrechender Habilitationsschrift "Den Kaiser herausfordern" wird der Prinzipat in weiten Teilen der (deutschsprachigen) Forschung als Akzeptanzsystem betrachtet. Demnach hing die Macht des Kaisers von der Erfüllung der Erwartungen relevanter Gesellschaftsgruppen ab. Eine dieser Gruppen war der Senat. Mit dem Akzeptanzsystem als methodischem Rüstzeug rückt meist das Verhältnis zwischen Kaiser und Senat, nicht der Senat als solcher in den Fokus. Wo aber der Senat zentraler Untersuchungsgegenstand ist, geht es mitunter sehr zentral um die Angehörigen des ordo senatorius. Beide Tendenzen unterläuft Simone Blochmann in ihrer Dissertation ganz gezielt, indem sie den Senat als Institution in den Blick nimmt. ...
In mehreren Fragmenten der Universalgeschichte des Nikolaos von Damaskus (64-4 v. Chr.) werden Fälle von Anthropophagie thematisiert. Diese Überlieferungen gehen zwar auf ältere Quellen zurück (schließlich hat der Geschichtsschreiber sein Werk weitgehend kompiliert), allerdings wählte Nikolaos seine Vorlagen bewusst aus und setzte individuelle Akzente, sodass die Betrachtung von Erzählmotiven zu einer Erschließung der Universalgeschichte beitragen kann. Die Belege für Anthropophagie bei Nikolaos werden hier erstmals zusammengestellt und untersucht. Im Zentrum der Analyse steht die Frage nach dem diskursiven Umgang des Historikers mit dem Phänomen sowie nach der Funktion des Narrativs in seinem Werk.
Im politischen Denken der griechisch-römischen Antike sind quantifizierende Betrachtungen weitaus weniger stark vertreten als qualifizierende. Wenn sie vorkommen, dann gewöhnlich in der Weise, dass die Relation zwischen Größerem und Kleinerem in den Blick genommen wird, etwa zwischen Gemeinwesen unterschiedlicher Größe bzw. zwischen verschieden großen politisch aktiven Gruppierungen innerhalb eines Gemeinwesens oder aber dergestalt, dass Größe explizit goutiert wird, beispielsweise im Hinblick auf das Ausmaß einer bestimmten Herrschaft. Eine dezidiert kritische Auseinandersetzung mit Größe oder gar eine positive Konnotation von Kleinem begegnen dagegen weitaus seltener. ...
"... et quod hodie exemplis tuemur, inter exempla erit." Mit diesen Worten beendete der römische Historiograph Publius Cornelius Tacitus die von ihm konzipierte Version der Gallierrede aus dem Jahr 48 n. Chr., die er dem römischen Princeps Claudius in den Mund gelegt hatte. Tacitus griff hier mit den Exempla der Vorfahren ein wichtiges Argument der konservativen römischen Nobilität auf, durch das diese ihr Handeln häufig legitimierte, und ließ es seinen Claudius dafür nutzen, um die Aufnahme von gallischen Notabeln, also eine auf den ersten Blick noch nie dagewesene Neuerung, zu rechtfertigen. Dazu wählte er beispielhafte Episoden aus der römischen Geschichte, die verdeutlichten, dass die Vorfahren selbst ebenfalls Neuerungen zugelassen hatten, die sich im Nachhinein als sehr wichtig für die römischen Erfolge herausgestellt hatten. Damit widersprächen Neuerungen folglich nicht dem mos maiorum, dem für das römische Moralverständnis grundlegenden Wertekanon, sondern seien vielmehr integraler Bestandteil desselben. ...
Helmuth Schneider war von 1991 bis 2011 Professor für Alte Geschichte an der Universität Kassel. Zu seinem 70. Geburtstag haben sein Nachfolger, Kai Ruffing, und Kerstin Droß-Krüpe, gleichfalls Althistorikerin in Kassel, eine Sammlung 23 wichtiger Publikationen des Jubilars neu herausgegeben, wobei die Auswahl mit dem Geehrten abgestimmt wurde. Dankenswerterweise wurden die Artikel nicht nur neu gesetzt, sondern es wurde auch Wert gelegt auf die Angabe der ursprünglichen Seitenzahlen, so dass ein Auffinden einzelner Stellen unproblematisch ist. ...
In der hier zu besprechenden Arbeit von R. Brendel, einer überarbeiteten und ergänzten Fassung der an der LMU München im Oktober 2013 eingereichten Dissertation, werden, wie es der Verlag Dr. Kovač ankündigt, "erstmals vollständig sämtliche mit Julian in Verbindung stehende[n] Gesetzestexte gesammelt, in Übersetzung vorgelegt und ausgewertet". Neben den Werken von S. Conti über die Inschriften Julians und Th. Fleck über die Portraits wird damit ein weiteres Themenfeld für den Kaiser systematisch erschlossen, der nach wie vor moderne Forscher in seinen Bann zieht. Als methodisch weiterbringend erachtet der Verf. es auch, die spätantiken und frühmittelalterlichen Kommentare wie die Summaria antiqua Codicis Theodosiani und die Summa Perusina Codicis Iustiniani (zit. S. 446) heranzuziehen. ...
Die ursprünglich über zwei Meter hohe Inschrift von Paros, im Folgenden hier gemäß der gängigen Konvention als Marmor Parium bezeichnet, stellt einen faszinierenden Text dar, der in den Altertumswissenschaften jedoch kaum größere Beachtung erfährt. Umso erfreulicher ist es, dass sich Andrea Rotstein in einer monographischen Abhandlung eingehend damit beschäftigte und erstmals seit über 100 Jahren auch eine neue Edition mitsamt englischer Übersetzung vorlegte. ...
In einer Zeit, in der man sich zuweilen fast schon entschuldigen zu müssen glaubt, wenn man keinen strikt vegetarischen Lebensstil pflegt, ist die Lektüre dieses Buches eine wahre Wohltat: Die sinn- und einheitsstiftende Funktion von Fleisch, Fleischkonsum und damit verbundener Bereiche wie Festmahl und Jagd sind Thema von Egbert J. Bakkers (im Folgenden B.) Monographie, die außerdem mit einer Länge (bzw. Kürze) von knapp zweihundert Seiten einen angenehmen Kontrapunkt zu zahlreichen überlangen Wälzern setzt. Der Hauptteil des Buches ist gegliedert in acht durchschnittlich ca. zwanzig Seiten umfassende Kapitel, gefolgt von einem ‚Epilog‘ (der jedoch eigentlich ins erste Kapitel gehört). Um den Hauptteil herum angeordnet sind die üblichen Paraphernalien: zu Beginn ein Vorwort ("Preface", S. ix) sowie eine Kurzeinführung mit einer gerafften Übersicht über den Aufbau des Buches und den Inhalt der einzelnen Kapitel ("Prologue: food for song", S. x-xiii); am Ende die Bibliographie (S. 170-181) sowie ein Stellen- und Sachindex (S. 182-187 bzw. 188–191). ...
Die Besitznahme der Oberrheinlande durch Rom – Aspekte einer Bevölkerungs- und Militärgeschichte
(2017)
Römer, Kelten und Germanen haben ihren festen Platz in der historischen Erinnerung. Dies betrifft nicht nur epochale Vorgänge und Ereignisse von weitreichender, gleichsam weltgeschichtlicher Bedeutung, sondern auch solche von begrenzter zeitlicher wie räumlicher Relevanz. Letzteres gilt auch für das Gebiet von Hoch- und Oberrhein mit einer eigenen Geschichte, die selbstverständlich ihrerseits zugleich in übergreifende historische Prozesse eingebettet ist. Im Folgenden wollen wir uns eingehender nur mit der frühen Phase der Begegnung zwischen Römern und jenen Völkerschaften befassen, die gemeinhin den Kelten bzw. den Germanen zugeordnet werden, und einige wichtige Aspekte der Bevölkerungsgeschichte der Oberrheinlande am Übergang von der Latènezeit zur römischen Epoche thematisieren. Mit dieser eng verbunden ist die römische Heeresgeschichte, der wir für die Zeit von Caesars Feldzug in Gallien bis zum Ende der iulisch-claudischen Dynastie wenigstens in einigen Grundzügen nachgehen wollen. Die unter ganz anderen historischen Bedingungen erfolgten Angriffe mit der folgenden Landnahme der Alamannen und Franken ab dem 3. Jahrhundert n. Chr. blenden wir aus; dies wäre Gegenstand einer eigenen Analyse. Trotz bemerkenswerter Fortschritte der jüngeren Vergangenheit ist allerdings nicht zu übersehen, dass nach wie vor eines der Hauptprobleme der modernen Forschung zur frühen Geschichte des hier im Zentrum des Interesses stehenden Raumes im sachgerechten Verständnis des Übergangs von der protohistorischen zur römischen Epoche besteht. Jedoch scheint zumindest darin weitgehend Konsens zu bestehen, dass – wie Lars Blöck in seiner jüngst publizierten, detailreichen Dissertation zur Besiedlung des südlichen Oberrheingebietes vermerkt. – "der Übergang von der Spätlatène- zur römischen Zeit innerhalb der Besiedlungsgeschichte [---] einen tiefgreifenden Einschnitt darstellt." ...
Durch die stille Luft glitt eine Taube herab und schwebte zärtlich Aretulla dort, wo sie saß, geradewegs auf den Schoß. Ein Spiel des Zufalls konnte das nicht sein, doch sie blieb, ohne daß man sie bewachte, und weigerte sich wegzufliegen, obwohl ihr die Flucht erlaubt war. Wenn es der liebenden Schwester vergönnt ist, auf eine Besserung der Lage zu hoffen, und wenn Bitten den Herrn der Welt zu rühren vermögen, dann ist dieser Vogel vielleicht von den sardischen Küsten des Verbannten zu dir als ein Bote gekommen, und dein Bruder wird alsbald zurückkehren. ...
Nördlich von Euskirchen-Rheder (Kr. Euskirchen) im Erfttal entdeckte man im Jahre 1841 in einem römerzeitlichen Grab einen kleinen Altar (Höhe 30 cm – Breite 18 cm – Tiefe 9 cm) aus Kalkstein. Die stark abgeriebene Inschrift des Steins, die der Zeit zwischen 170 und 230 n. Chr. zugeordnet werden kann, fand Aufnahme in das CIL und wird einige Jahre später von LEHNER entsprechend den Angaben im CIL wie folgt gelesen ...
Im Jahr 1999 kamen bei Unterfangungsarbeiten vor der Fundamentmauer des Hauses Heidelbergerstrasse 6 in der südlichen Altstadt von Ladenburg vier aneinander passende Fragmente einer Inschriftentafel aus Marmor zum Vorschein. Ihre vorläufige Erstveröffentlichung erfolgte noch im gleichen Jahr durch Dr. Britta Rabold. Zur erhofften vertiefenden wissenschaftlichen Bearbeitung durch Géza Alföldy kam es leider nicht mehr. Inzwischen Gebietsreferentin für die Archäologische Denkmalpflege beim Landesamt in Karlsruhe trat B. Rabold schließlich im Frühjahr 2017 mit der Bitte an mich heran, die Ladenburger Marmortafel nochmals in Augenschein zu nehmen und eine Einschätzung abzugeben. Dem komme ich nach eingehender Autopsie hiermit gern nach. ...
Einleitung: Die konventionelle Galaktografie stellte jahrzehntelang das einzige bildgebende Verfahren zur Darstellung von Milchgängen in der Brust dar. Heute verfügen wir in der Diagnostik über ein multimodales Konzept aus hochauflösendem Ultraschall, der Magnetresonanz-(MR-)Mammografie und der Duktoskopie/Galaktoskopie mit Sensitivitäten und Spezifitäten bis zu 95%. Ziel unserer Untersuchung war es, erstmalig die Tomosynthesetechnik in der Galaktografie einzusetzen und die daraus generierten synthetischen digitalen 2-D-Vollfeld-Mammografien mit der etablierten Methode der duktusorientierten Sonografie zu vergleichen. Es sollen mit beiden Methoden invasive Mammakarzinome und deren Vorstufen wie duktale Carcinoma in situ (DCIS) sowie benigne Befunde erkannt werden. Material und Methoden: Wir führten bei 5 Patientinnen mit pathologischer Mamillensekretion sowohl eine duktusorientierte Sonografie, eine kontrastmittelunterstützte Galaktografie mithilfe der Tomosynthese in 3-D sowie auch den daraus generierten synthetischen digitalen 2-D-Vollfeld-Mammografien durch. Die Auswertung der unterschiedlichen Untersuchungsmodalitäten erfolgte durch 3 in der komplementären Mammadiagnostik erfahrene Untersucher (1, 5 und 15 Jahre) und wurde mit der endgültigen Histologie korreliert. Ergebnisse: Alle 3 Untersucher beurteilten unabhängig voneinander die Bilder des duktusorientierten Ultraschalls und der kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik in 3-D und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien. Die Ergebnisse wurden mit den histopathologischen Befunden der Operationspräparate korreliert, wobei sich bei den 5 Patientinnen 1 invasives Mammakarzinom, 2-mal ein duktales Carcinoma in situ (DCIS) und 2 benigne Befunde ergaben. Alle drei Untersucher lagen bei der Verdachtsdiagnose in der Standardbildgebung der duktusorientierten Sonografie seltener richtig als bei der erstmalig durchgeführten, kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien. Schlussfolgerung: Erstmalig wurde die Brusttomosynthese in der Galaktografie (Galaktomosynthese) eingesetzt und ermöglichte eine digitale, 3-dimensionale Darstellung von suspekten Befunden. Zusammen mit den daraus synthetisierten, digitalen 2-D-Vollfeld-Mammografien könnte dies in Zukunft eine sinnvolle Ergänzung der komplementären Mammadiagnostik sein – und eine Renaissance dieser Methode. Im Vergleich mit dem duktusorientierten Ultraschall in Hochauflösung erzielten die Untersucher mit der kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien bessere Ergebnisse in Korrelation mit den histopathologischen Befunden.
Gegenstand der vorliegenden Arbeit sind die Untersuchungen lichtgesteuerter Reaktionen der zwei Retinalproteine Channelrhodopsin-2 (ChR-2) und Proteorhodopsin (PR) mit Hilfe zeitaufgelöster Laserspektroskopie.
Da der Mechanismus der Kanalöffnung des ChR-2 bis heute nicht vollständig aufgeklärt werden konnte, beschäftigt sich diese Arbeit insbesondere mit den Prozessen, die direkt nach der Photoanregung des Retinals stattfinden und die Kanalöffnung vorbereiten. Es wurde dabei gezielt auf für die Funktion des Proteins wichtige Faktoren wie strukturelle Besonderheiten des Chromophors und seiner Umgebung eingegangen und deren Auswirkung auf die Dynamik der Photoreaktionen sowie die Veränderungen im Protein nach der Anregung untersucht.
Zunächst wurden die Ergebnisse der vis-pump-IR-probe-Experimente an ChR-2 im Bereich der Carbonylschwingungsbanden protonierter Glutamat- und Aspartat-Reste dargestellt. Dabei wurde insbesondere die Bildungsdynamik der Differenzbanden in diesem Spektralbereich untersucht und in Anlehnung an die vorhandene Literatur eine Bandenzuordnung der für die Funktion des Proteins wichtigen Aminosäurereste vorgenommen. Aus den Messergebnissen konnte geschlossen werden, dass die mit der Kanalöffnung einhergehenden Konformationsänderungen in ChR-2 durch eine effektive Aufnahme der Überschussenergie durch das Protein auf einer sub-Pikosekunden-Zeitskala vorbereitet werden.
Des Weiteren wurden spektroskopische Untersuchungen an der R120H-Mutante des ChR-2 vorgestellt. Da diese Mutante bei elektrophysiologischen Messungen keine Kanalaktivität zeigte, sollte zunächst geklärt werden, ob die Mutation einen Einfluss auf die Retinalisomerisierung und den nachfolgenden Photozyklus hat. Dabei stellte sich heraus, dass die Retinalisomerisierung bei der R120H-Mutante zwar im Vergleich zum Wildtyp etwas verzögert stattfindet, der Einfluss der Punktmutation auf den weiteren Photozyklus jedoch insgesamt gering ist. Mit Hilfe der Kurzzeit-IR-Spektroskopie im Bereich der Amid I-Schwingung des Proteinrückgrats konnten für die Mutante allerdings signifikante Veränderungen der Bildungsdynamik sowie eine deutliche Abnahme der Amplitude des Amid I-Signals detektiert werden. Anhand weiterer Experimente an den Mutanten E123T und D253N in diesem Spektralbereich konnte anschließend ein Zusammenhang zwischen der Intensität der Amid I-Bande und der Kanalaktivität von ChR-2 festgestellt werden. Diese Ergebnisse ließen somit die Schlussfolgerung zu, dass die Aminosäurereste R120 und D253 eine entscheidende Rolle beim schnellen Transfer der Überschussenergie an das Protein nach der Retinalanregung und der so initiierten Kanalöffnung spielen.
Zusätzlich wurde der Frage nachgegangen, inwieweit Veränderungen am Chromophor die Isomerisierungsreaktion, den nachfolgenden Photozyklus sowie die Funktion des ChR-2 als Ionenkanal beeinflussen können. Zu diesem Zweck wurden spektroskopische Untersuchungen an einem mit 9-12-Phenylretinal (PheRet) rekonstituierten ChR-2 vorgestellt. Es konnte gezeigt werden, dass die Isomerisierung des PheRet zu seiner 13-cis-Form in ChR-2 stark verlangsamt ist und verglichen mit dem nicht modifizierten Chromophor deutlich ineffizienter abläuft. Es wurde außerdem festgestellt, dass die Veränderungen am Retinal zu deutlichen Beeinträchtigungen des Photozyklus führen. Zum einen wurde ein sehr schneller Zerfall des ersten Photoprodukts sowie die Bildung eines zusätzlichen, blauverschobenen Px-Zustands detektiert. Außerdem wurde festgestellt, dass nach der Deprotonierung des isomerisierten PheRet der Großteil der modifizierten Retinale in den Ausgangszustand zurückkehrt und der P3-Zustand nur in geringen Mengen gebildet wird. Die Messergebnisse führten somit zu der Schlussfolgerung, dass die all-trans-Konformation des PheRet in ChR-2 deutlich bevorzugt wird. Da elektrophysiologische Untersuchungen des Retinal-Analogons jodach keine signifikanten Verminderungen der Photoströme im Vergleich zum ATR in ChR-2 zeigten, ließ sich schließlich festhalten, dass die vorgenommenen Veränderungen am Chromophor, die zu einer deutlichen Hemmung der Isomerisierungsreaktion führen und einen starken Einfluss auf den nachfolgenden Photozyklus haben, nicht ausreichend sind, um die Kanalaktivität von ChR-2 komplett zu blockieren, solange noch ein kleiner Anteil der Retinale isomerisieren kann.
Der abschließende Teil der Arbeit beschäftigt sich mit der Absorption des UV-Lichts durch das Retinal mit deprotonierter Schiff-Base im grünabsorbierenden Proteorhodopsin, welches in einem alkalischen Medium im Dunkelzustand akkumuliert werden kann. Die Untersuchungen der Primärreaktion zeigten einen langsamen biexponentiellen Zerfall des angeregten Zustands der UV-absorbierenden Spezies mit anschließender Bildung des 13-cis-Photoprodukts. Aufgrund dieser Ergebnisse konnte ein Reaktionsmodell für die ersten Prozesse nach der UV-Anregung des Retinals im GPR aufgestellt werden, welches möglicherweise für weitere UV-Rezeptoren genutzt werden kann.
Die Kephalometrie stellt einen bedeutenden Diagnostikbestandteil der kieferorthopädischen Diagnostik und Behandlungsplanung dar, mit deren Hilfe es möglich ist, skelettale Ursachen dentaler Befunde zu evaluieren. Üblicherweise erfolgt die kephalometrische Analyse anhand eines Fernröntgenseitenbildes, das jedoch neben der unausweichlichen Strahlenbelastung des Patienten, der sich zumeist im jugendlichen Alter und im Wachstum befindet und damit besonders vulnerabel bezüglich ionisierender Strahlung ist, auch geometrische Verzerrungen und Verzeichnungen aufweist, die eine kephalometrische Analyse erschweren. Zudem erfolgt beim FRS eine dreidimensionale Analyse, die auf einer zweidimensionalen Ansicht basiert und daher nicht die Exaktheit einer 1:1 Analyse besitzen kann. Die Kephalometrie mittels Magnetinduktion stellt eine strahlenfreie Alternative zur Verfügung. Im Rahmen der vorliegenden Studie ist untersucht worden, inwieweit Untersucher mit dem auf einer elektromagnetischen Induktion basierenden noXrayCeph®- Gerätes in der Lage sind, genaue Messdaten zu generieren und zu reproduzieren. Beim noXrayCeph®-Gerät handelt es sich um eine Weiterentwicklung des 3-Space®-Isotrak®- Gerätes der Firma POLHEMUS. Im Rahmen der hier durchgeführten Studie konnte die Messgenauigkeit der kephalometrischen Messung auf Basis der Magnetinduktion sowie die Reproduzierbarkeit durch verschiedene Untersucher statistisch belegt werden. Weiterhin sollten mit der Durchführung einer Anwenderschulung die Anwenderfreundlichkeit des Gerätes und das einfache Erlernen der Handhabung eruiert werden. Hierfür wurden insgesamt drei differente Versuchsreihen aufgebaut. Die Messgenauigkeit des noXrayCeph®-Gerätes wurde anhand eines normierten Abstands von exakt 100 mm nachgewiesen. Außerdem konnten fünf unterschiedliche Untersucher jeweils 15mal eine kephalometrische Analyse mit dem noXrayCeph®-Gerät reproduzierbar durchführen. Dabei waren die Messergebnisse sowohl Untersucher sowie zeitunabhängig. Diese kephalometrischen Untersuchungen erfolgten hierbei an einem Kunststoffschädel, auf den 55 Messpunkte als kephalometrische Variablen übertragen worden waren. In einer nachfolgenden Anwenderschulung konnten sechs männliche und vier weibliche Probanden nachweisen, dass auch ohne eine Anwenderschulung eine hohe Reproduzierbarkeit der ermittelten Werte erreicht werden konnte. Ebenfalls wurde der Einfluss des Geschlechts, des Winkels des angesetzten 103 Messstiftes, der Handhabung dieses Messstiftes sowie des physiologischen Tremors auf die Messgenauigkeit und die Reproduzierbarkeit der Daten geprüft. Es ließ sich wiederholt zeigen, dass mit dem noXrayCeph®-System genaue und reproduzierbare Werte einer kephalometrischen Analyse gewonnen werden, die bei den unterschiedlichen Untersuchern in einem Rahmen tolerierbarer Schwankungen vergleichbar sind. Auch intraindividuell weisen die ermittelten Daten eine hohe Reproduzierbarkeit auf. In dieser Studie sind Einflüsse des Geschlechts, der Handhabung des Messstiftes sowie des Winkels dieses Stiftes ebenso wenig nachweisbar wie ein positiver Einfluss einer Vorab-Schulung der Probanden. Der bei den Probanden vorhandene, unterschiedlich ausgeprägte physiologische Tremor und die unterschiedliche Haltung der Messspitze hatten keinerlei Auswirkung auf die Reproduzierbarkeit der Messergebnisse. Zusammenfassend lässt sich aus der durchgeführten Studie somit ableiten, dass das noXrayCeph®-Verfahren geeignet ist für eine exakte kephalometrische Analyse. Die Patienten sind keiner Strahlenexposition wie bei einer Röntgenaufnahme ausgesetzt. Die Anwenderschulung zeigte außerdem, dass das Verfahren und der Umgang mit dem noXrayCeph®-Gerät bei der Messung einfach erlernbar und gut durchführbar ist. Die aus dem Röntgenverfahren resultierenden Probleme wie Verzerrungen und Überlagerungsfehler sowie die Strahlenexposition gerade bei jungen Patienten können mit diesem Verfahren umgangen und eliminiert werden. Somit stellt die Kephalometrie mit dem noXrayCeph®-Gerät eine fundierte Alternative in der Kieferorthopädie dar.
Ich hatte im Wintersemester 1968 in Frankfurt mit dem Pharmaziestudium angefangen. Das pharmazeutische Institut lag ja damals in der Georg-Voigt-Straße, also nicht weit entfernt vom Zentrum der Studentenunruhen, dem Uni-Hauptgebäude mit der Aula. Daher haben wir einiges von den Protesten mitbekommen. ...
Über die Bedeutung des geistigen Erbes von 68 wird 50 Jahre später trefflich gestritten. Mögen die politischen Ideen des Aufbruchs und das daran anknüpfende Handeln heute für Kontroversen sorgen, so erfreut sich hingegen der Sound der Revolution, der damals zum Ärger orthodoxer Kommunisten ganz klar von der Rockmusik dominiert wurde, einer nahezu ungebrochenen Begeisterung: Das "»Weiße Album" der Beatles, "Electric Ladyland" von Jimi Hendrix oder "Beggars Banquet" von den Rolling Stones, alle 68 erschienen, werden heute mehr denn je bewundert. Im Zeichen einer grassierenden "Retromania" (Simon Reynolds) gewinnt der mit Mythen und Heldengeschichten aufgeladene Sound der Vergangenheit mit zunehmendem zeitlichen Abstand sogar noch an Bedeutung. In ihrer Frühphase ist die Popmusik noch ein Wettstreit verschiedener Stile, Techniken und auch Bands. Ihre steigende gesellschaftliche Akzeptanz lässt aber spätestens in den 70er Jahren Zweifel laut werden an ihrer weiterhin behaupteten und auch inszenierten Widerständigkeit.
Das Private ist politisch! – 68 war der Slogan eine auf Ganze gerichtete Perspektive der Kritik und ein Impuls für die Revolutionierung des Alltagslebens: Es ging bei den Diskussionen und Analysen um die "Weltherrschaft des Kapitals" und den Zusammenhang von Faschismus und Kapitalismus immer zugleich um die Manifestationen von Herrschaft und Unterdrückung in den Kapillaren des Alltäg lichen. In den Blick gerieten dabei nicht zuletzt die Autoritätsstrukturen der bürgerlichen Familie und damit die (im Sinne marxistischer Gesellschaftsanalyse) sogenannte "Nebenwidersprüche" des Privaten: das Verhältnis der Geschlechter, Fragen von Liebe und Sexualität, Kindererziehung, Eigentumsfragen und Besitzdenken. Der Slogan wurde darüber hinaus zum Leitspruch der Frauenbewegung, die vor Augen führt, wie politisch das Private gerade in Fragen von Nachwuchs und Alltagsorganisation ist. ...
In den zahlreichen Beiträgen zum "Jubeljahr der 1968er-Bewegung" kommen oft ehemalige Aktive, Historikerinnen und Experten zu Wort. Doch wie blicken eigentlich Aktivistinnen und Aktivisten des 21. Jahrhunderts auf diese Zeit zurück? Dieser Frage hat sich ein zweijähriges Forschungsprojekt am Institut für Politikwissenschaft der Goethe-Universität gewidmet.
Weg mit den Talaren! Hoch die Doktorhüte! : vom Wandel der Zeremonialität an deutschen Universitäten
(2018)
"Unter den Talaren – Muff von 1000 Jahren": Dieser Slogan steht wie kaum ein anderer für die Aufbruchstimmung der 68er-Generation. Damit zielten die Hamburger Studenten auf das Verschweigen der NS-Vergangenheit ab, anschließend ging es aber auch den Talaren selbst an den Kragen. Seit einigen Jahren wird im zeremoniellen Raum der Universitäten vielfach experimentiert: Die Fächer bilden eine jeweils eigene Feierkultur aus – auf der Suche nach einem Übergang von der Universität in das berufliche Leben.
Herr Wolff, in der Ausgabe von Forschung Frankfurt zum Jubiläumsjahr werden Sie mit dem Satz zitiert: "Die Offenheit der Debatten, die die 68er erkämpft haben, lässt sich nicht mehr zurücknehmen." Vor Kurzem wurde an der Goethe-Universität heftig über Meinungsfreiheit gestritten. Die Frage war: Darf man den Polizeigewerkschafter Rainer Wendt zur Diskussion an die Uni einladen. Hat Ihre Aussage nach wie vor Bestand? ...
Mit "Sit-in" und "Teach-in" zur Weltrevolution : Erinnerungen an den Sprachgebrauch der "68er"
(2018)
"Sit-in" und "Teach-in"? – Wer 1968 noch kein Zeitgenosse war, wird beides nur für zwei der im 20. Jahrhundert immer beliebter werdenden, aber oft unverstandenen Fremdwörter aus dem Englischen halten. Heute sind beide weitgehend vergessen, so brandaktuell sie auch einmal waren. Mit ihnen wurde nicht weniger gemeint als eine Sitzblockade vor Hörsälen und die Verhinderung einer regulären Lehrveranstaltung, indem man sie in ein Agitationsforum "umfunktionierte". Die traditionellen Vorlesungen wurden ohnehin als "säkularisierte Predigten" verhöhnt. Als ersten Frankfurter Hochschullehrer traf es ausgerechnet den Staatsrechtler Carlo Schmid, immerhin einen der Väter des Grundgesetzes, der seine Vorlesung abbrechen musste. ...
Kurz vor Mitternacht am 2. April 1968 bricht im Kaufhaus M. Schneider auf der Zeil ein Feuer aus. Kurz darauf ertönt der Feueralarm im Kaufhof an der Hauptwache. Menschen werden nicht verletzt, der Schaden beträgt nach heutigem Geldwert rund eine Million Euro. Unter den Tätern sind Andreas Baader und Gudrun Ensslin. Beide werden zu drei Jahren Zuchthaus verurteilt. Die Brandanschläge auf die Frankfurter Kaufhäuser sind die Geburtsstunde der Roten Armee Fraktion – das wissen wir heute. ...
Die Ausstellung "Freiraum der Kunst", die bis 8. Juli 2018 im Museum Giersch der GoetheUniversität zu sehen ist, zeichnet die Geschichte der "studiogalerie" nach. Dieses vom Allgemeinen Studentenausschuss (AStA) betriebene Forum präsentierte im Studentenhaus auf dem Campus Bockenheim von 1964 bis 1968 Ausstellungen und Veranstaltungen der nationalen und internationalen Avantgarde. Malerei und Objekte der Licht-Kunst und Kinetischen Kunst, der Konkreten Kunst, des Neuen Realismus, der Op-Art, der Hard-Edge- und Farbmalerei, aber auch FluxusKonzerte und Happenings sollten als studentischer Beitrag zur Demokratisierung von Kunst und Gesellschaft verstanden werden. Legendär wurde die Ausstellung "Serielle Formationen" von 1967. Im Zuge der Radikalisierung der Frankfurter Studentenschaft kamen die Aktivitäten jedoch 1968 zum Erliegen.
Unter dem Schlagwort "68er-Bewegung" werden verschiedene linksgerichtete Protestbewegungen, Bürgerrechtsdemonstrationen und antiautoritäre Aktionen zusammengefasst, die ab Mitte der 1960er in Deutschland und zahlreichen anderen Ländern stattfanden und auf eine Umwälzung bestehender sozialer und politischer Strukturen zielten. ...
Jedes Mal, wenn ich in Frankfurt bin, eine Stadt, in der ich von 1960 bis 1980 gelebt habe und wo ich Ostern 1968, direkt nach meiner Entlassung aus der Bundeswehr, sofort an den großen Osterdemonstrationen teilgenommen habe – die Antwort auf das Attentat auf Rudi Dutschke –, zieht es mich in das alte Universitätsviertel an der Bockenheimer Warte. ...
Ende 1967 ist er noch Pressereferent beim AStA der Goethe-Universität, da ereilt ihn zum Jahreswechsel der Ruf des Uni-Rektors Walter Rüegg: Klaus Viedebantt, Student der Volkskunde, übernimmt im Januar 1968 den Posten des "Pressereferenten der Akademischen Presse- und Informationsstelle der Universität". ...
Auch im Fachbereich Rechtswissenschaft an der Goethe-Universität kam es 1968 zu heftigen Turbulenzen. Dabei zeigten die meisten jüngeren Professoren des Fachbereichs durchaus Verständnis für manche der studentischen Forderungen. Einige Reformansätze scheiterten, andere wurden erst durch feinere Nachjustierungen funktional.
Die weltweiten Proteste von 1968 waren in verschiedenen Ländern unterschiedlich ausgeprägt. Geeint wurden sie durch einen Gesellschaftsentwurf, der sich nicht nur vom Kapitalismus unterschied, sondern auch vom Kommunismus und den Leitideen der Sozialdemokratie. Zu den wichtigsten Exponenten in Europa zählen Daniel Cohn-Bendit, Tariq Ali und Rudi Dutschke, die die Massen mobilisierten.
Die Erinnerung an das Jahr 1968 kann nur eine Form annehmen: die der Collage. Ein halbes Jahrhundert nach jenen Ereignissen könnte das beispielsweise so aussehen: Manches, was inzwischen in Publikationen und Dokumentationen vorliegt, mit Selbsterlebtem verbinden, um auf diese Weise einen Eindruck von der Vielschichtigkeit und dem gelegentlich surrealistisch wirkenden Zusammen- und Gegeneinanderspiel von "Frankfurter Schule" und Studentenbewegung zu vermitteln.
Vor 50 Jahren probte die Studentenbewegung den Umsturz. Der Vietnamkrieg und die Forderung nach Emanzipation brachten weltweit junge Menschen auf die Straße, Bildungsmisere und Notstandsgesetze waren spezifisch deutsche Protestthemen. Für Frankfurt charakteristisch war die Auseinandersetzung mit der Frankfurter Schule und ihren Vertretern.
Der Beitrag analysiert die Voraussetzungen für stabiles Geld und setzt sich dabei grundlegend mit Hayeks Thesen zu alternativen Währungssystemen sowie dessen fundamentaler Kritik an der Möglichkeit zur Gestaltung der Geldpolitik auf wissenschaftlicher Basis auseinander. Er prüft Hayeks Vorschlag zur Entnationalisierung des Geldes und seine Thesen zur Überlegenheit des im privaten Wettbewerb geschaffenen Geldes. In diesem Zusammenhang schlägt der Beitrag einen Bogen zur aktuellen Diskussion über Kryptowährungen und wirft die Frage auf, ob virtuelle Währungen wie etwa Bitcoin geeignet sind, den Hayekschen Währungswettbewerb zu entfalten. Sodann wird im Gegensatz zu Hayeks Forderung nach einer Abschaffung der Zentralbanken deren entscheidende Rolle für anhaltendes Wachstum bei stabilen Preisen skizziert und die Wichtigkeit der Unabhängigkeit von Notenbanken für die dauerhafte Durchführung einer stabilitätsorientierten Geldpolitik hervorgehoben. Gleichwohl ergeht der Hinweis, dass Notenbanken mit der Überschreitung ihres Mandats auf lange Sicht gesehen selbst den Status ihrer Unabhängigkeit unterminieren können und damit die Rückübertragung der Kompetenz für zentrale geldpolitische Entscheidungen auf Regierung und Parlament provozieren. Die Gefahren der weitgehenden Unabhängigkeit einiger weniger an der Spitze der Notenbanken anerkennend wird anschließend die Bedeutung ihrer Rechenschaftspflicht und Transparenz ihrer Entscheidungen unterstrichen.
Hintergrund: Eine empirische Untersuchung zur tatsächlichen Lehrpraxis an den medizinischen Fakultäten sowie eine Aufnahme der Wünsche von Medizinstudierenden und Ärzten unterschiedlicher Weiterbildungsgrade hinsichtlich Seltener Erkrankungen in der Lehre ist bisher noch nicht umfassend vorgenommen worden. Um die Integration der Seltenen Erkrankungen in die medizinische Ausbildung an deutschen Universitäten zu fördern, soll neben einer Ist-Analyse zudem die Entwicklung eines geeigneten Modellmoduls für Seltene Erkrankungen erfolgen. Dies soll einen Beitrag dazu leisten, angehende Ärzte bereits während ihres Humanmedizinstudiums für Seltene Erkrankungen zu sensibilisieren.
Methoden: Es wird eine Ist- Analyse anhand einer anonymen Fragebogenumfrage an den medizinischen Fakultäten Deutschlands sowie ein leitfadengestütztes Interview mit Studierenden im praktischen Jahr, Assistenzärzten des Universitätsklinikums Frankfurt und Fachärzten für Allgemeinmedizin/ hausärztlich tätigen Internisten des Kreises Bergstraße sowie Alzey-Worms durchgeführt. Aus der Gesamtheit der studentischen Wünsche an eine Lehrveranstaltung zu Seltenen Erkrankungen, den Empfehlungen von Seiten der Assistenzärzte/ Fachärzte für Allgemeinmedizin sowie den Kompetenzbereichen und Lernzielen des NKLM wird das Modellmodul mit entsprechenden Kompetenzen und Lernzielen entwickelt.
Ergebnisse und Schlussfolgerungen: In den empirisch erhobenen Daten zeigt sich, dass Mediziner aller Aus- und Weiterbildungsstufen häufiger als gedacht mit Seltenen Erkrankungen in Berührung kommen. Weiterhin ist festzustellen, dass die momentane Lehrsituation nicht optimal auf den Umgang mit Seltenen Erkrankungen vorbereitet. 29 von 33 Befragten begrüßen daher die curriculare Integration von Seltenen Erkrankungen in das Medizinstudium. Die frühe Sensibilisierung von Medizinstudierenden für die spezifischen Probleme von Menschen mit Seltenen Erkrankungen sowie die lernzielorientierte Kompetenzvermittlung zum Umgang mit solchen durch ein curricular integriertes Modellmodul, trägt zur Professionalisierung der angehenden Ärzte bei. Gleichzeitig wird die Versorgung von Menschen mit Seltenen Erkrankungen verbessert. Einerseits kann somit dem Patienten ein langer Leidensweg erspart werden, andererseits tritt bei Medizinern keine Überforderung im Umgang mit Nichtwissen über Seltene Erkrankungen ein. Die dabei eingesparten zeitlichen und finanziellen Ressourcen können in eine optimale Patientenversorgung investiert werden.
Die re:publica 2018 in der Twitteranalyse: User Statistiken, beliebteste Tweets und insbesondere die Debatte um das Verhalten der Bundeswehr rund um die #rp18. Deskriptive Analysen und rudimentäres Textmining. Agenda-Setting durch die Bundeswehr? Vielleicht ein bisschen. For our international readers, the graphs are kept in english. R code and data here.
Ziel der Arbeit ist es, den frühen Zweitspracherwerb bei Kinder mit einer Spezifischen Sprachentwicklungsstörung (specific language impairment, SLI) zu charakterisieren. Im Vergleich zwischen sprachunauffälligen Kindern mit Deutsch als Zweitsprache (DaZ-TD) und und sprachauffälligen Kindern (DaZ-SLI) wird für die morpho-syntaktischen Bereiche Finitheit und Verbstellung sowie Kasus untersucht, anhand welcher Entwicklungsmuster sich zwischen einem unauffälligen und einem auffälligen DaZ-Erwerb unterscheiden lässt. Dabei werden die folgenden übergeordneten Fragen (F) beantwortet. (F1) Gibt es Unterschiede in Bezug auf Fehlerarten und -häufigkeiten zwischen DaZ-TD und DaZ-SLI Kindern? (F2) Gibt es persistierende Defizite bei DaZ-SLI Kindern verglichen mit DaZ-TD Kindern?
Untersucht wurden über einen Zeitraum von zwei Jahren 33 DaZ-Kinder, elf davon mit einer SLI. Zu Beginn der Erhebungen waren die DaZ-TD Kinder im Durchschnitt 3;8 Jahre alt und hatten 11 KM zum Deutschen. Die DaZ-SLI waren zu MZP 1 durchschnittlich 7;1 Jahre alt (45 KM). Zu insgesamt vier MZP wurden elizitierte Produktionsdaten mittels des standardisierten Verfahrens LiSe-DaZ (Schulz & Tracy 2011) erhoben. Sowohl die Methode der elizitierten Produktion als auch die längsschnittlichen Analysen einer großen Gruppe von Kindern mit DaZ erlaubten es, Aussagen über das Erwerbsalter bzw. persistierende Defizite und Entwicklungsmuster, insbesondere bei SLI, zu treffen. Entwicklungsverzögerungen (delay) und ggf. vom DaZ-TD Erwerb abweichende Entwicklungsmuster (deviance) wurden abgebildet.
Mit der Beantwortung der Fragen leistet die Arbeit in zweierlei Hinsicht einen Beitrag. Erstens wird mit Blick auf die Spracherwerbsforschung gezeigt, dass DaZ-SLI Kinder entwicklungsverzögert sind und sowohl ø-Stämme in V2 als auch Schwierigkeiten im Erwerb von Dativ in Präpositionalphrasen auf eine SLI bei Kindern mit DaZ hinweisen. Zweitens wird aus Sicht der Linguistik dafür argumentiert, dass zum einen ø-Stämme in V2 kovert finit sind und zum anderen in Modellen der Kasuszuweisung von einer dreigliedrigen Struktur, also einer Unterscheidung zwischen strukturellem, lexikalischem und inhärentem Kasus, ausgegangen werden muss.
Die Arbeit knüpft an damit an verschiedene Erwerbsstudien an. Hinsichtlich des Erwerbs von Finitheit und Verbstellung war bisher ungeklärt, ob auch die DaZ-SLI Kinder zwischen en-Infinitiven und ø-Stämmen hinsichtlich der jeweiligen Position im Satz unterscheiden, wie bereits für den DaZ-TD Erwerb nachgewiesen. Die vorliegende Studie wies dieses Erwerbsmuster auch für den DaZ-SLI Erwerb nach und schließt sich damit bisherigen Studien hinsichtlich kovert finiter ø-Stämme in V2 an. Studien zum Kasuserwerb bei DaZ, die auf den linguistisch relevanten Unterschied in der Kasuszuweisung, d.h. strukturell vs. nicht-strukturell (inhärent und lexikalisch), eingehen, gab es nur wenige. Die Frage, ob in der Kasustheorie von einem zwei- oder dreigliedrigen Modell ausgegangen werden muss, war neben der Frage nach möglicherweise abweichenden Erwerbsmustern und persistierenden Erwerbsschwierigkeiten bei DaZ-SLI bislang ungeklärt. In der vorliegenden Studie wurde gezeigt, dass DaZ-SLI Kinder verglichen mit DaZ-TD Kindern ähnliche Fehlermuster zeigen, aber insbesondere der Dativ in PPs stark verzögert erworben wird. Die Studie schließt den Ergebnissen zum simultan bilingualen Erwerb an und postuliert ein dreigliedriges Kasussystem.
Insgesamt zeigt die vorliegende Studie erstmals anhand elizitierter Längsschnittdaten, dass DaZ-SLI Kinder bis ins Schulalter persistierende Probleme im Erwerb von Finitheit und Verbstellung sowie Kasus haben. Verglichen mit DaZ-TD Kindern erwerben sie diese Bereiche - wenn überhaupt - deutlich verzögert (delay). In den Fehlertypen unterscheiden sich die beiden Erwerbstypen hingegen nicht (deviance).
Da die Implantologie ein fester Bestandteil der modernen Zahnheilkunde geworden ist, wird auch die Evaluation des Kieferknochens immer relevanter. Diese hohe Bedeutung des Kieferknochens ist damit zu begründen, dass für den Langzeiterfolg eines Implantates die knöcherne Einheilung im Rahmen der Osseointegration die Grundvoraussetzung bildet. Zudem erfordern verschiedene Knochenqualitäten des Kieferknochens unterschiedliche Implantatdurchmesser und Bohrprotokolle. Schon hier zeigt sich, wie relevant weitreichende Kenntnisse über den Kieferknochen sind.
Auch im Rahmen der Implantatforschung und -entwicklung ist es von großer Bedeutung, Knochen zu evaluieren und damit kalibrieren und kategorisieren zu können, um vergleichbare Versuchswerte generieren zu können. In der aktuellen Literatur liegen zahlreiche Studien zu der Knochendichte, -qualität und -quantität des Kieferknochens vor, Evaluationsmethoden des Kieferknochens sind jedoch rar. Aufgrund dessen befasst sich diese Arbeit mit der Neuentwicklung einer Evaluationsmethode von Knochen.
Zu diesem Zweck wurde in dieser Arbeit der an ein inseriertes Implantat-Dummy angrenzende Knochen mit einem Bone-Evaluation Tool bewertet und geprüft, ob eine Korrelation zwischen dem Eindrehmoment des Implantat-Dummys, der Kompaktadicke und dem Eindrehmoment des nachfolgenden Bone-Evaluation-Tools besteht. Eine bestehende Korrelation würde bedeuten, dass dieses Evaluation-Tool in der Lage ist, Knochen bezüglich seiner Güte zu bewerten und zu kalibrieren.
Durchgeführt wurden die Versuche an dem distalen Ende von bovinen Rippensegmenten sowie an Segmenten des bovinen Femurkopfes. Beide sollten den Kieferknochen der humanen Mandibula simulieren. Es wurden zwei im Durchmesser differierende Bohrprotokolle angewendet, welche als „Hard Bone Small“ (HBS) und „Hard Bone Large“ (HBL) bezeichnet wurden. Als erstes erfolgte jeweils eine Vorbohrung (ø HBS: 3,3 mm; ø HBL: 4,0 mm), gefolgt von der Insertion des Implantat-Dummys (ø HBS: 3,5 mm; ø HBL: 4,2 mm). Als nächstes erfolgte die Entfernung (Aufbohrung) der Gewindeimpressionen, die durch den Implantat-Dummy generiert wurden (ø HBS: 3,8 mm; ø HBL: 4,5 mm). Anschließend wurde das Bone-Evaluation-Tool inseriert (ø HBS: 4,0 mm; ø HBL: 4,7 mm). Zum Schluss wurden die Rippensegmente mittig der Insertionsstelle aufgehackt und an beiden Hälften jeweils median der Insertionsstelle die Kompaktadicke gemessen und die Werte gemittelt.
Anhand der Ergebnisse konnte gezeigt werden, dass beide Bohrprotolle (HBS und HBL) verwendet werden können, um bovinen Rippenknochen zu evaluieren (p<0,001), da eine statistisch signifikante Korrelation zwischen Drehmoment ID mit Drehmoment BET und der Kompaktadicke bewiesen wurde (p<0,001). In Folgearbeiten wird geprüft, ob sich diese Bohrprotokolle auch auf menschlichen Kadaverknochen übertragen lassen.
Licht ist ein wertvolles Werkzeug zur Regulation biochemischer Reaktionsabläufe. Denn die Applikation von Licht erlaubt eine sehr präzise Einflussnahme auf den Ort und den Startzeitpunkt der zu untersuchenden Reaktionen. Als nichtinvasives Medium bietet die Lichtkontrolle bei der Wahl einer geeigneten Anregungswellenlänge den Vorteil nur minimal in einen lebenden Organismus einzugreifen. Um eine solche lichtbasierte Kontrolle für biologische Anwendungen zu realisieren, ist die Anwesenheit einer lichtsensitiven Verbindung nötig. Ein Konzept der lichtsensitiven Verbindungen ist die sogenannte photolabile Schutzgruppe. Im Allgemeinen handelt es sich hierbei um einen Chromophor der temporär an ein Biomolekül angebracht wurde, um dessen biologische Aktivität zu unterdrücken.
In dieser Arbeit wurde dieses Konzept auf das Antibiotikum Puromycin angewendet, welches durch das synthetische Anbringen der Cumarin-Schutzgruppe DEACM in seiner biologischen Aktivität behindert und durch einen Lichtpuls wieder freigesetzt wurde. DEACM st eine photolabile Schutzgruppe mit breitem Anwendungsspektrum, da es im Vergleich zu anderen Cumarin-Derivaten vorteilhafte photophysikalische Eigenschaften aufweist. Zum einen ist durch den 7-Diethylamino-Substituenten das Absorptionsmaximum dieser Verbindung um etwa 20 nm bathochrom verschoben. Zum anderen zeichnet sich dieses Derivat durch einen erheblich erhöhten Extinktionskoeffizienten aus, sodass eine Freisetzungsreaktion mit einer geringeren Lichtdosis induziert werden kann, was weniger Stress für die Zellen in lebenden Systemen bedeutet.
Die antibiotische Wirkung von Puromycin beruht auf der strukturellen Ähnlichkeit zum5'-Ende von Tyrosyl-tRNA, wodurch sich das Antibiotikum kondonunspezifisch während der Translation der Proteinsynthese an das Ribosom anlagern kann. Anschließend wird die naszierende Polypeptidkette auf das Puromycin transferiert. Da diese neue Bindung unter biologischen Bedingungen nicht spaltbar ist, führt dies zu einer verfrühten Freisetzung des Polypeptid-Puromycin-Fragments. Schließlich ist die Proteinsynthese vollständig abgebrochen.
Die Motivation zur photoinduzierten Kontrolle von Puromycin besteht in der Vielzahl an biologischen Applikationsmöglichkeiten, da die lichtregulierte Freisetzung der biologischen Aktivität als Trigger für sich anschließende biochemische Abläufe verwendet werden kann. Durch das hier gezeigte System kann in Kombination mit anderen Techniken (z.B. NMR) die posttranslationale Proteinfaltung beobachtet werden, welche als hochgradig komplexer Prozess bisher nicht verstanden ist. Eine weitere Motivationsgrundlage ist die Anwendung von DEACM-puromycin in Nervenzellen. Hier kann durch die Photofreisetzung die Proteinsynthese in den Dendriten der Neuronen beobachtet werden, wodurch Rückschlüsse auf neurodegenerative Krankheiten möglich sein sollten, wie z.B. Alzheimer-Krankheit. In dieser Arbeit konnte in-vitro nachgewiesen werden, dass die antibiotische Wirkung von Puromycin mittels Licht kontrollierbar ist. Aus der photophysikalischen Grundcharakterisierung ging hervor, dass DEACM-puromycin einen hohen Extinktionskoeffizienten bei Wellenlängen größer als 380 nm aufweist. Folglich kann zur Induktion der Photolyse eine geringere Lichtdosis mit energiearmer Strahlung als bei dem Vorläufersystem NVOC-puromycin verwendet werden, angesichts dessen ist das hier vorgestellte DEACM-puromycin für Anwendungen in Zellen zu empfehlen.
Über die Kombination von quantenchemischen Rechnungen und spektroskopischen Methoden konnten die frühen Schritte der Freisetzungsreaktion bestimmt und quantifiziert werden. Zudem zeigte sich ein Einfluss der Lösungsmittelzusammensetzung auf die Uncaging-Schritte. In Gegenwart eines protischen Lösungsmittels wird der zum Uncaging in Konkurrenz stehende Prozess der Fluoreszenz unterdrückt, wodurch die Freisetzungsschritte effektiver werden. Zudem führt die Präsenz von Protonen zu einer Stabilisierung des ionischen Intermediates, sodass die Bildung dessen beschleunigt ablaufen kann. Die Spaltung der photolabilen Schutzgruppen vom Puromycin findet mit einer Rate von 0,71*10^8 s-1 statt, welche im Vergleich zu Vorgängersystem um eine Größenordnung größer ist. Die Wiederherstellung der biologischen Aktivität resultiert aber erst nach einem anschließenden Decarboxylierungsschritt. Mithilfe von IR-Messungen konnte die Decarboxylierung beobachtet und daraus die Quantenausbeute zu 2,5% determiniert werden. Die so bestimmte Quantenausbeute entspricht etwa dem Zweifachen von NVOC-puromycin, sodass die hier untersuchte Verbindung eindeutig als das effizientere System zu betrachten ist. Die hier beschriebenen Ergebnisse zeigen, dass DEACM-puromycin vorteilhafte photophysikalische Eigenschafen aufweist, die diese Verbindung zu einem wertvollen Hilfsmittel für eine Vielzahl von lichtkontrollierten Untersuchungen in biologischer Umgebung macht. Zudem wurden Einblicke in den Reaktionsmechanismus gegeben, die das Verständnis der photolytischen Spaltung von Carbamat-geschützten Cumarinen erstmals auf der ultrakurzen Zeitskala ermöglicht.
Klinische Frühergebnisse nach endoskopischer Lobektomie (VATS-Lobektomie versus daVinci-Lobektomie)
(2016)
In der vorliegenden Untersuchung wurden zwei operative Techniken zur endoskopischen Lobektomie miteinander hinsichtlich der Frühergebnisse verglichen. In die Untersuchung wurden alle Patienten einbezogen, die an der Abteilung für Thoraxchirurgie der Goethe Universität Frankfurt am Main zwischen April 2010 und Dezember 2012 wegen pulmonaler Karzinome minimal-invasiv lobektomiert wurden. Dabei wurden 34 Patienten einer Roboter-unterstützten Lobektomie sowie 25 Patienten einer VATS-Lobektomie unterzogen.
Es fanden sich keine signifikanten Differenzen in den präoperativen Daten und dem Risikoprofil der Patienten. Auch die intraoperativen Ergebnisse zeigten keine statistisch signifikanten Unterschiede. Postoperativ fand sich eine Tendenz zu höheren Tumorstadien sowie eine geringere Schmerzintensität bei den RATS-Patienten. Die Nachblutungsmenge war bei beiden Verfahren gering. Das klinische Outcome war vergleichbar, ebenso die geringe Morbidität und Komplikationsrate bei den beiden Verfahren.
Weitere Untersuchungen mit höheren Patientenzahlen sind erforderlich, um die Unterschiede zwischen den Verfahren zu untersuchen. Prinzipiell sind beide Verfahren geeignet um Patienten mit nicht-kleinzelligen Lungenkarzinomen in niedrigen Tumorstadien zu operieren.
Zur weiteren Verbesserung der Ergebnisse müssten für die RATS-Lobektomien spezielle Instrumente angefertigt werden. Die derzeit verwendeten Instrumente wurden ursprünglich für Koronargefäße oder urologische Operationen entwickelt, die sich in der Thoraxchirurgie oft als unzureichend erweisen. Zudem ist das Robotersystem stets in Entwicklung. Es sind kürzlich neue Instrumente eingeführt worden wie z.B. Klammernahtgeräte oder Instrumente, die für die automatische Durchtrennung kleinerer Gefäße zuständig sind. Manche Autoren beschreiben den Stapler, der eingesetzt wurde, noch als „mangelhaft“. Aus technischer Sicht fehlt immer noch das taktile Feedback, was jedoch teils durch die Erfahrung des Operateurs und mit Hilfe des 3-Dimensionalen Sehens kompensiert wird.
Diese Arbeit soll den ersten Grundbaustein bezüglich des postoperativen Schmerzmittelverbrauches nach einer videoassistierten- und roboterassoziierten Lobektomie legen. Wir sind uns sicher, dass dieses Thema in Zukunft weiter und noch detaillierter ausgearbeitet wird.
Nach den Studien von Flores und Alam wurden am Ende die Fragen gestellt:
➢ „Kann der Eingriff rein robotisch durchgeführt werden?
➢ Sind Op-Zeiten und Krankenhausaufenthalt kürzer?
➢ Sind die Inzisionen kleiner?
➢ Sind die postoperativen Schmerzen geringer?
➢ Ist das Verfahren billiger?“
Mit dieser vorliegenden Arbeit können die ersten vier Punkte aus der oben erwähnten Studie positiv bestätigt werden. Die Zugangswege sind kleiner bzw. gleich groß. In der Studie Kumar et al. wird ausdrücklich erwähnt, dass jedes Verfahren, welches durch die VATS geführt wird, mit dem Roboter noch besser auszuführen sei. Ein Problem stellen die Kosten dar. Wenn diese ebenfalls gesenkt werden können, würde einer flächendeckenden Verbreitung des Roboterverfahren nichts im Wege stehen. Die daVinci-Lobektomie ist zumindest eine geeignete Alternative im Vergleich zu der VATS-Lobektomie.
Die Herztransplantation ist die Goldstandardtherapie der Herzinsuffizienz [24]. Verglichen mit der konventionellen Therapie führt sie zu einer verbesserten Überlebensrate, Belastbarkeit und Lebensqualität [15b]. Diese werden durch die internationale Gesellschaft für Herz- und Lungentransplantation (ISHLT) mit ihrer weltweit größten Datenbank für Herz- und Lungentransplantationsdaten überprüft [45]. Aufgrund des hohen Stellenwerts und der umfassenden Arbeit der ISHLT findet in dieser Dissertation der Vergleich der Daten über das Outcome von 76 Herztransplantierten der Johann-Wolfgang-Goethe-Universitätsklinik Frankfurt am Main (KGU) mit den Daten der ISHLT statt.
Es handelt sich bei dieser Arbeit um eine retrospektive Studie, die 60 Männer und 16 Frauen im Alter zwischen 18 und 68 Jahren einschließt, die an der Uniklinik Frankfurt zwischen dem 24.02.1997 und dem 04.05.2013 eine Herztransplantation erhielten. Das Ziel dieser Arbeit ist es, die Ergebnisse der Universitätsklinik Frankfurt a.M. mit den internationalen Werten zu vergleichen um genauere Informationen zur internationalen Positionierung zu erhalten. Die Resultate sollen dazu dienen, die eigenen Prozesse zu verbessern, Stärken auszubauen und Schwächen zu beheben und die Behandlung der Patienten den wissenschaftlichen Empfehlungen anzupassen.
Die Ergebnisse dieser Studie zeigten, dass die 1-Jahres-Überlebenswahrscheinlichkeit an der KGU mit 69% deutlich geringer war als international mit 81% [37a]. Dabei zeigte sich in genaueren Analysen, dass das schlechtere Kurzzeitüberleben vor allem von der Transplantationsära von Februar 1997 bis 2001, der zur Transplantation führenden Diagnose einer ischämischen Kardiomyopathie (ICM) und dem Vorhandensein eines Assist Devices vor der Transplantation verursacht wurde. Das Alter und das Geschlecht des Patienten dagegen schienen keinen Einfluss darauf zu nehmen. Im Langzeitüberleben lagen die Ergebnisse der KGU deutlich über den Werten der ISHLT. Unter der Bedingung, dass das erste postoperative Jahr überlebt wurde, ergab sich für KGU Patienten eine 10- bzw. 15-Jahres-Überlebenswahrscheinlichkeit von 74% (n=40) bzw. 60% (n=33). Die Wahrscheinlichkeit das 10. postoperative Jahr zu überleben lag für ISHLT Patienten bei 63,9%; für das 15. Jahr lag dieser Wert bei 42% [37g].
Die Langzeitkomplikationen der Malignität und der TVP traten an der KGU anteilig seltener auf als international. Die TVP-Freiheit nach 10 Jahren lag international bei 47% und an der KGU bei 75% [37e]. Für die Freiheit von Malignität lag die Wahrscheinlichkeit des 10. Jahres international bei 66% und an der KGU bei 74% [37c]. Die Wahrscheinlichkeit für die Freiheit von einem Kreatininwert über 2,5mg/dl bis zum 10. Jahr nach Transplantation war an der KGU mit 70% (n=26) ähnlich wie die internationalen Werte von 61,5% [37b]. Die Patienten der KGU erlitten des Weiteren deutlich mehr Abstoßungen im ersten Jahr. Während international zwischen 25 und 30% der Patienten eine Abstoßungsreaktion im ersten Jahr erlebten, waren es an der KGU mindestens 50%. Trotzdem war der Anteil an behandlungsbedürftigen Abstoßungen an der KGU anteilig geringer als bei dem Patientenkollektiv der ISHLT [37d]. Bei der Analyse der Immunsuppression zeigte sich, dass die KGU das Steroidweaning deutlich später und in wesentlich geringerem Ausmaß durchführt: während im 5. postoperativen Jahr 48% der ISHLT-Patienten Steroide erhalten, sind es an der KGU noch 83% (n=40) [37n]. Im Vergleich der verschiedenen Kombinationstherapien zeigte sich, dass in der Patientengruppe der KGU hauptsächlich Kombinationen mit Ciclosporin (Jahr 1 85,2%, n=46) angewendet wurden, während unter den ISHLT-Patienten hauptsächlich Tacrolimus (Jahr 1 57,5%, n=4053) eingesetzt wurde. Beide Gruppen haben gemeinsam, dass der Anteil an Sirolimus- bzw. Everolimus-Kombinationen von Jahr 1 auf Jahr 5 zunimmt. Dabei kommen diese Kombinationen prozentual gesehen international häufiger vor [37m].
Folglich konnte diese Studie nicht nur zeigen, wo die Stärken der Universitätsklinik Frankfurt liegen, sondern auch welche Punkte in naher Zukunft verbessert werden können. Somit werden konkrete Anpassungen an der Behandlung der HTx-Patienten der KGU erfolgen können.
Für das bessere Verständnis der Nukleosynthese der schweren Elemente im s-Prozess wurde im Rahmen dieser Arbeit die Messung zur Bestimmung der Neutroneneinfangsreaktion von 83Kr durchgeführt. Als Messinstrument wurde DANCE am LANL verwendet, ein 4pi-Kalorimeter zur Detektion der entstehenden g-Kaskaden bei (n,g)-Reaktionen. Darüber hinaus wurden außerdem noch Proben mit 85Kr und 86Kr vermessen.
Die Herausforderung an diesem Experiment bestand vor allem in der Probenherstellung. Das Edelgas Kr erforderte eine Neukonstruktion der normalerweise bei DANCE verwendeten Probenhalterung. Das Hauptaugenmerk lag auf der Maximierung der Kr-Exposition durch den Neutronenstrahl. Im Gegenzug wurde versucht das umgebende Material nach Möglichkeit keinen Neutronen auszusetzen. Für die Isotope 83,86Kr wurden Hochdruckgaskugeln verwendet, die an der Goethe-Universität Frankfurt gefüllt und in eine der neuen Probenhalterungen eingesetzt wurden. Zur Beachtung des bei der Messung entstehenden Untergrundes wurde eine Messung mit baugleicher Probenhalterung und leerer Gaskugel durchgeführt. Da bereits kleine Mengen 85Kr eine hohe Radioaktivität aufweisen, wurde eine in einen Stahlzylinder eingeschweißte, existierende Quelle verwendet.
Bei der Analyse zu 86Kr wurde schnell eine zu starke Verunreinigung der Kr-Probe mit Xe offensichtlich, einen signifikanten Anteil des Spektrums ausmachte. Aus diesem Grund kam es vor allem zu Problemen den korrekten Untergrund von den 86Kr Messdaten zu subtrahieren. Die weitere Bestimmung inklusive Streukorrekturen, Normierung anhand des Flussmonitors und DICEBOX/GEANT3 Effizienzbestimmung lieferte zwar einen energieabhängigen Wirkungsquerschnitt, dieser zeigte allerdings große Abweichungen von den evaluierten ENDF/B-VII.1 Daten, was besonders ersichtlich in der deutlichsten 86Kr Resonanz bei 5515 eV zu erkennen war. Aus diesem Grund konnte aus den Messdaten kein MACS extrahiert werden.
Bei einer Untersuchung der Aktivität der 85Kr-Probe mit Hilfe der einzelnen BaF2-Detektoren in der DANCE Kugel zeigte sich zunächst eine um fast einen Faktor vier geringere Aktivität als vom Hersteller angegeben. Auch bei der weiteren Analyse traten massive Untergrundprobleme auf. Die Form des Stahlzylinders, in dem das Kr-Gasgemisch eingeschweißt war, konnte aufgrund seiner Form nur schwer im Strahlrohr untergebracht werden. Beim Experiment selbst zeigte sich dann, dass Teile der Halterung vom Neutronenstrahl getroffen wurden, was einen Untergrund mit sehr hohem Q-Wert erzeugte, der nicht durch ein Esum Fenster entfernt werden konnte. Durch eine Beschädigung der Halterung mit der Probe kam es darüber hinaus zu Abweichungen mit der verwendeten Leerhalterung. All das führte trotz einer langen Messzeit von fast 18 d dazu, dass nur ein sehr schwaches Signal von der eigentlichen Kr-Probe zu erkennen war. Es wurde eine mögliche 85Kr Resonanz bei 675 eV gefunden, allerdings ist die endgültige Zuordnung aufgrund der nicht eindeutigen Untergrundsituation äußerst schwierig. Im Vorfeld des Kr-Experimentes wurde eine Messung von RbCl an DANCE durchgeführt, da ursprünglich zu erwarten war, dass bereits ein Teil des 85Kr zu 85Rb zerfallen war. Durch diese Messung sollte dieser Anteil leicht von der späteren Messung zu subtrahieren sein. Allerdings trat ein unerwartetes Problem während der Datenaufnahme auf. Die Verbindung der DAQ Boards wurde getrennt, wodurch ca. 3/4 der Detektoren nicht mehr zeitsynchron liefen. Im Zuge dieser Arbeit wurde eine Rekonstruktion dieser Daten angestrebt. Durch Modifikationen am FARE Code, der zur Auswertung verwendet wurde, konnte Flugzeitspektren für jeden Beschleunigerpuls erzeugt werden. Es zeigte sich zunächst ein offensichtlicher Trend einer Verschiebung der getrennten Boards zu späteren Zeiten. Durch mehrere Fits an die Abweichungsverteilung und anschließende Korrektur konnte zunächst ein Spektrum wiederhergestellt werden, das vergleichbar mit den unbeschädigten Daten war. Bei einer detaillierten Analyse dieser neu gewonnen Daten zeigte sich jedoch eine Nichtlinearität in der Zeitverschiebung. Dies resultierte letztlich in einer Korrektur des Spektrums, allerdings nicht in einem Koinzidenzfenster von 10 ns, das für eine Wirkungsquerschnittsanalyse notwendig ist. Es wurde geschlussfolgert, dass durch die geringe Statistik in den einzelnen Flugzeitspektren solch eine Genauigkeit nicht zu erreichen ist.
Die Messung des Neutroneneinfangsquerschnitts von 83Kr konnte im Zuge dieser Arbeit erfolgreich durchgeführt werden. Es wurden zwei Messungen mit verschiedenen Strömen kombiniert. Eine Messung mit 40 µA wurde durchgeführt, um Pile-Up in der größten Resonanz bei 28 eV zu reduzieren. Die zweite Messung diente dann dem Sammeln von ausreichend Statistik in den nicht resonanten Bereichen. Die eingesetzte Leerkugel erlaubte eine saubere Subtraktion des Untergrundes von Probenhalterung, Gaskugel und Umgebung. Für die Skalierung der Messergebnisse wurde eine weitere Messung mit einer 5000 Å dicken Goldfolie durchgeführt. Zur Bestimmung der Detektoreffizienz konnten zunächst die durch den Neutroneneinfang entstandenen Abregungskaskaden der 84Kr Kerne mit DICEBOX modelliert werden. Diese Kaskaden wurden dann anschließend in GEANT3 Simulationen verwendet, um die Effizienz bestimmen zu können. Mit diesen Methoden erhielt man die Maxwell-gemittelten Wirkungsquerschnitte von kT = 5 keV - 100 keV. Bei der für den s-Prozess wichtigen Temperatur von kT = 30 keV wurde der Querschnitt bestimmt zu: MACS (30 keV) = (256,6 +- 14,2 (stat) +- 18,1(sys)) mb.
Dieser Wert ist in guter Übereinstimmung mit dem in der KADoNIS v0.3 Datenbank angegebenen Wert von MACS;KADoNIS (30 keV) = (243 +- 15) mb. Mit den so gewonnenen Wirkungsquerschnitten wurden außerdem die Reaktionsraten berechnet. Bei den anschließenden Netzwerkrechnungen mit dem Programm NETZ wurden die Auswirkungen der in dieser Arbeit gewonnenen Wirkungsquerschnitte im Vergleich zu den KADoNIS v0.3 Werten betrachtet. Dabei zeigte sich eine leicht erhöhte Produktion der stabilen Isotope 84Kr, 86Kr, 85Rb und 87Rb, sowie eine leichte Unterproduktion der stabilen Isotope 86-88Sr in der Hauptkomponente des s-Prozess. Ein ähnliches Bild zeigte sich in der He-Brennphase der schwachen Komponente. Der in dieser Arbeit gemessene Wirkungsquerschnitt bei hohen Temperaturen ist geringer als der in KADoNIS v0.3 angegebene, weswegen es bei der Simulation mit NETZ zu einer stark erhöhten Produktion von 83Kr in der C-Brennphase kommt.
IFLS-Journal. Nr. 23, 2018
(2018)
GOeTHEO : Ausgabe 18
(2018)
GOeTHEO : Ausgabe 17
(2017)