Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Die Geschichte der europäischen Integration wird in der Regel als Erfolgsgeschichte erzählt, vor allem als wirtschaftliche Erfolgsgeschichte, die sich in Folge kluger und aus historischer Erfahrung getroffener Entscheidungen ergeben habe (vgl. Loth 2014; vgl. auch Mittag 2008). Der Zweite Weltkrieg habe endgültig gezeigt, dass das durch zahlreiche Nationalstaaten gekennzeichnete Europa, sollte es nicht zusammenarbeiten, zu verheerenden Konflikten neige. Und die Zusammenarbeit sei nicht nur politisch klug; sie zahle sich zusätzlich wirtschaftlich aus. So seien allen Teilnehmerstaaten auch in einem ganz ordinär materiellen Sinne Profiteure der europäischen Einigung, die in dieser Logik dann auch gar nicht weit genug gehen kann, bedingen sich hiernach doch das politisch Sinnvolle und das ökonomisch Erfolgreiche gegenseitig – und zwar genau in der Form der supranationalen Organisation, die die Europäische Union mittlerweile angenommen hat. Liest man einen Satz der Bundeskanzlerin Angela Merkel so, dann ist die europäische Integration nach Brüsseler Art deshalb alternativlos, weil es kein vergleichbares Erfolgsmodell gibt. Aus der zunächst durch das Leid des Krieges geprägten Bereitschaft zur Zusammenarbeit ist unter der Hand eine Art Sachzwang geworden, denn von der einmal eingeschlagenen Straße der Integration kann man in dieser Sicht nur unter erheblichen Wohlstandsverlusten und politischen Risiken abweichen.
In dieser Sachzwanglogik war allerdings die Euro-Krise nicht vorgesehen. Sie konnte im strengen Sinne auch gar nicht passieren, war doch die weitere Vertiefung der europäischen Union zur Währungsunion in den 1990er Jahren gerade damit begründet worden, dass derartige Krisen zukünftig ausgeschlossen seien (vgl. Tietmeyer 2005). Dass die Politik auf sie zunächst überrascht, fast panisch und dann durch konsequentes Vorantreiben der institutionellen und finanziellen Integration reagiert hat, zeigt auch, dass hier ein Denken vorherrscht, das nach dem Motto funktioniert, es könne doch nicht sein, was nicht sein dürfe. ...
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Die 8. Fachtagung für Hochschuldidaktik der Informatik (HDI) fand im September 2018 zusammen mit der Deutschen E-Learning Fachtagung Informatik (DeLFI) unter dem gemeinsamen Motto "Digitalisierungswahnsinn? – Wege der Bildungstransformationen" in Frankfurt statt.
Dabei widmet sich die HDI allen Fragen der informatischen Bildung im Hochschulbereich. Schwerpunkte bildeten in diesem Jahr u. a.:
– Analyse der Inhalte und anzustrebenden Kompetenzen in Informatikveranstaltungen
– Programmieren lernen & Einstieg in Softwareentwicklung
– Spezialthemen: Data Science, Theoretische Informatik und Wissenschaftliches Arbeiten
Die Fachtagung widmet sich ausgewählten Fragestellungen dieser Themenkomplexe, die durch Vorträge ausgewiesener Experten und durch eingereichte Beiträge intensiv behandelt werden.
Adorno und die Kabbala
(2015)
Im neunten Band der Reihe geht Ansgar Martins kabbalistischen Spuren in der Philosophie Theodor W. Adornos (1903–1969) nach. Der Frankfurter Gesellschaftskritiker griff im Rahmen seines radikalen materialistischen Projekts gleichwohl auch auf "theologische" Deutungsfiguren zurück. Vermittelt durch den gemeinsamen Freund Walter Benjamin (1892–1940) stieß Adorno dabei auf das Werk des Kabbala-Forschers Gershom Scholem (1897–1982). Zwischen Frankfurt und Jerusalem entwickelte sich eine lebenslange Korrespondenz.
Für Adorno erscheint vor dem Hintergrund lückenloser kapitalistischer Vergesellschaftung jede religiöse Sinngebung in der Moderne als unmöglich. Der Tradition der jüdischen Mystik schreibt er hingegen eine innere Affinität zu dieser hoffnungslosen Logik des "Verfalls" zu. Sie scheint ihm zur unumgänglichen Säkularisierung religiöser Gehalte aufzufordern. Adornos kabbalistische Marginalien beziehen einen breiten Horizont jüdisch-messianischer Ideen ein. Er verleugnet dabei nie, dass es ihm um eine sehr diesseite Verwirklichung geoffenbarter Heilsversprechen zu tun ist: Transzendenz sei als erfüllte Immanenz, als verwirklichte Utopie zu denken. In diesem Anliegen sieht Adorno selbst jedoch gerade seine Übereinstimmung mit der Kabbala.
Adornos kabbalistische Motive, die auf Scholems Forschungen zurückgehen, werden hier ausführlich an seinen Schriften und Vorlesungen untersucht. In seinem Verständnis der philosophischen Tradition sowie im Modell der Metaphysischen Erfahrung suchte er etwa explizit Anschluss an Deutungen der Kabbala: Das unerreichbare Urbild der Philosophie sei die Interpretation der geoffenbarten Schrift. Wie säkularisierte heilige Texte wurden Werke von Beethoven, Goethe, Kafka oder Schönberg so zum Anlass für "mystische" Interpretationen. Deren detaillierte Untersuchung erlaubt, das viel beschworene jüdische Erbe von Adornos Philosophie zu konkretisieren und bedenkenswerte Einzelheiten von der Negativen Dialektik zur Ästhetik in den Blick zu nehmen.
Der 2‘-Desoxyguanosin-Riboschalter gehört zur unter Bakterien weit verbreiteten Klasse der Purin-Riboschalter. Allerdings wurden 2‘-Desoxyguanosin-bindende Riboschalter bisher ausschließlich in M. florum gefunden, damit stellt diese RNA eine Ausnahme unter den ansonsten verbreiteten Purin-Riboschaltern dar. In der vorliegenden Arbeit wurde ein NMR-Strukturmodell des IA-Aptamer-2‘-Desoxyguanosinkomplexes erstellt und anhand der mittels NMRSpektroskopie zugänglichen strukturellen Informationen sowohl Struktur und Dynamik des freien RNA-Aptamers als auch des 2‘-Desoxyguanosinkomplexes charakterisiert. Dabei wurde insbesondere der Einfluss von Mg2+ auf Struktur und Dynamik der jeweiligen Zustände sowie auf den durch 2‘-Desoxyguanosin induzierten Faltungsprozess untersucht.
Mg2+-Ionen modulieren die Faltungstrajektorien von sensorischen RNA-Domänen. Die Übertragbarkeit von Mg2+-abhängigen Charakteristika der RNA-Faltung innerhalb verschiedener Messmethoden ist durch die schlechte Vergleichbarkeit der relativen Konzentrationsverhältnisse eingeschränkt. Die NMR-spektroskopisch beobachtbaren Mg2+-Einflüsse sollten also unter besonderer Berücksichtigung der für NMR benötigten vergleichsweise sehr hohen RNAKonzentrationen mit Ergebnissen aus kalorimetrischen oder fluoreszenzspektroskopischen Messungen interpretiert werden. Die in der NMR-Spektroskopie üblichen hohen Probenkonzentrationen befinden sich in dem Regime, in dem auch der physikalische Effekt des verdrängten Volumens eine Rolle zu spielen beginnt. Demnach ist es für die RNA-Moleküle im NMR-Probenröhrchen bei Konzentrationen von 5-10 mg/ml auch ohne Zugabe von Mg2+ entropisch günstiger, kompakte Konformationen einzunehmen. Die Relevanz des Effekts des verdrängten Volumens für die RNA-Faltung unter NMR-Bedingungen und unter zellulären Bedingungen ist Gegenstand der aktuellen Forschung und wird in dieser Arbeit am Beispiel des IA-Aptamers diskutiert.
Der oft einzigartige Bindungsmodus ubiquitärer Metaboliten durch bakterielle Riboschalter (Montange and Batey, 2006) ermöglicht prinzipiell den Einsatz von RNA-Aptameren in vivo, ohne mit zellulären Proteinsystemen zu interferieren (Mulhbacher et al., 2010). Therapeutische Ziele sind beispielsweise die Anwendung von Riboschaltern gegen bakterielle Pathogene beziehungsweise gegen pathogene Bakterien selbst. Eine weitere Rolle wird RiboschalterElementen zukünftig als Bausteine in der synthetischen Biologie zukommen (Dixon et al., 2010; Knight, 2003; Topp and Gallivan, 2008). Hierfür ist es von grundlegender Bedeutung, Charakterisierung von Struktur als Basis für das Verständnis von Funktion unter zellulären Bedingungen zu etablieren. Im Rahmen einer Zusammenarbeit mit Robert Hänsel aus dem Arbeitskreis von Prof. Dr. Volker Doetsch wurde am Beispiel des IA-Aptamers und einer nichtnatürlichen Sequenzvariante gezeigt, dass eine strukturelle Charakterisierung von Riboschaltern mittels in cell NMR-Spektroskopie möglich ist. In Zusammenarbeit mit Karl von Laer aus der Arbeitsgruppe von Prof. Dr. Beatrix Suess wurden beide RNA-Aptamer hinsichtlich ihrer Funktion in einem biologischen Assay getestet. Die Ergebnisse dieser Experimente zeigten eine deutliche Korrelation von Struktur und Funktion in vivo, während Diskrepanzen zwischen Struktur in vitro und Funktion in vivo demonstriert werden.
Weiterhin wurde im Rahmen dieser Arbeit gezeigt, dass eine gewisse strukturelle Flexibilität der Bindungstaschen regulatorischer RNA-Motive für Selektion und Adaption während Evolution nötig ist. Beispielsweise wurde für den Guanin-Riboschalter gezeigt, dass der nicht-native Ligand 2‘-Desoxyguanosin zur Komplexbildung des Aptamers führt. Demnach könnte die Bindung von 2‘-Desoxyguanosin im Guanin-Riboschalter bereits evolutionär angelegt sein und die Entstehung des IA-Aptamers nach Genomreduktion der Mesoplasmen begünstigt haben. Das IA-Aptamer dagegen bindet Guanin nicht, stattdessen besitzt M. florum auf Guanin spezialisierte Sequenzvarianten dieses Riboschalters (Kim et al., 2007). Strukturell hochauflösende Einblicke in unterschiedliche Zustände der Bindungstasche im G-Aptamer-Thioguaninkomplex, die durch die Lösung der Kristallstruktur des GLoop-Aptamers ermöglicht wurden, unterstützen die Hypothese einer anpassungsfähigen Bindungstasche im G-Aptamer. Für B. subtilis wäre es interessant, die physiologische Bedeutung der Komplexbildung des G-Aptamers mit 2‘-Desoxyguanosin zu untersuchen.
So vielfältig das Studienangebot, so vielfältig sind auch die Studierenden der Goethe-Universität: Ob Bildungsbiographie oder soziale Herkunft, kultureller Hintergrund oder Lebensumstände—die Frankfurter Studierenden sind ein Spiegel der für Stadt und Region charakteristischen Diversität. Das bietet große Chancen für wechselseitiges Lernen, stellt die Universität aber auch vor Herausforderungen. Eine der größten dieser Herausforderungen ist, bei der Weiterentwicklung von Studium und Lehre die Bedürfnisse einer in sich heterogenen Studierendenschaft konstruktiv aufzugreifen. Neben einer regelmäßigen Rückmeldung der Studierenden (etwa im Rahmen der Lehrveranstaltungs- oder Studiengangsevaluation) und studentischem Engagement in universitären Gremien bedarf es hierfür einer fundierten Datenbasis. ...
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Helmut Siekmann erläutert in seinem Beitrag die Einstandspflicht der Bundesrepublik Deutschland für die Deutsche Bundesbank und die Europäische Zentralbank. Dabei kommt er zu dem Schluss, dass weder eine „Haftung der Bundesrepublik Deutschland für Verluste der EZB noch eine Verpflichtung zur Auffüllung von aufgezehrtem Eigenkapital“ besteht.
Dieser Beitrag ist zuerst erschienen in: Festschrift für Theodor Baums zum siebzigsten Geburtstag, S. 1145-1179, Helmut Siekmann, Andreas Cahn, Tim Florstedt, Katja Langenbucher, Julia Redenius-Hövermann, Tobias Tröger, Ulrich Segna, Hrsg., Tübingen, Mohr Siebeck 2017
Über Scheinriesen: Was TARGET-Salden tatsächlich bedeuten : eine finanzökonomische Überprüfung
(2018)
Der TARGET-Saldo der Bundesbank beläuft sich gegenwärtig auf knapp 1 Billion Euro. Kritikern zufolge birgt dieser Umstand hohe Lasten und Risiken für den deutschen Steuerzahler und zeigt, dass Deutschland zu einem „Selbstbedienungsladen“ im Eurosystem geworden sei. Vor diesem Hintergrund erörtert das Papier im Detail, wie TARGET-Salden überhaupt entstehen und was sie finanzökonomisch bedeuten. Die wirtschaftspolitische Analyse kommt zu dem Schluss, dass - anders als von den Kritikern behauptet- unter den Bedingungen einer Währungsunion im Normalbetrieb - TARGET-Salden lediglich Verrechnungssalden ohne weitere Implikationen sind, die aber nützliche Informationen über ökonomisch tieferliegende, regionale Verschiebungen geben können. Unter dem Extremszenario eines Zerfalls der Währungsunion können TARGET-Salden zwar als offene Positionen interpretiert werden, deren spätere Erfüllung würde aber ähnlich dem Brexit von komplizierten politischen Verhandlungen abhängen, sodass über die Werthaltigkeit allenfalls spekuliert werden kann. Sollte man das Extremszenario für bedeutend halten, und politisches Handeln fordern, erscheinen zwei Lösungen sinnvoll. Beide Vorschläge führen zu einer institutionellen Stärkung der Eurozone: i) die Einführung einer Tilgungspraxis, wie sie im US-amerikanischen Fedwire-System angewandt wird. Dabei handelt es sich um eine rein fiktive Tilgung in Form einer Umbuchung auf einem gemeinsamen (Offenmarkt-)Konto bei der EZB; ii) die Bündelung aller monetären Aktivitäten bei der EZB, sodass eine regionale Abgrenzung von Zahlungsvorgängen entfällt (und damit die TARGET-Salden verschwinden), weil alle Banken in direkter Beziehung zu ein und derselben Zentralbank stehen und der Zahlungsverkehr direkt zwischen den beteiligten Banken stattfindet.
Aufbauend auf der ersten universitätsweiten Studierendenbefragung von 2012/13 wurde im Wintersemester 2016/17 im Rahmen einer fächer- und statusgruppenübergreifenden Arbeitsgruppe unter der Leitung der zu diesem Zeitpunkt amtierenden Vizepräsidentin für Studium und Lehre auf Grundlage der ersten Studierendenbefragung der Basisfragebogen für eine zweite universitätsweite Studierendenbefragung weiterentwickelt. Es flossen dabei außerdem Ergebnisse von aktuellen bundesweiten sowie an anderen Hochschulen erfolgten Studierendenbefragungen in den Arbeitsprozess. ...
An der Goethe-Universität wurden im Wintersemester 2017/18 alle Studierenden grundständiger Studiengänge und Masterstudiengänge für die zweite universitätsweite Studierendenbefragung eingeladen (n=45.343) und gebeten Fragen zu ihrer Lebenswirklichkeit und Studiensituation, ihrem soziodemographischen oder bildungsbiographischen Hintergrund zu beantworten sowie Studienbedingungen und Lehrqualität einzuschätzen.
Das Ziel des vorliegenden Gesamtberichts ist die Dokumentation der universitätsweiten Befragungsergebnisse. Insgesamt konnten Antworten von 10.797 Studierende (Rücklauf 24%) in die Auswertungen aufgenommen werden. ...
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Zielsetzung: Beteiligung von Medizinstudierenden im Rahmen der konzeptionellen Entwicklung eines zielgruppenspezifischen und attraktiven allgemeinmedizinischen Lehrangebots im ländlichen Raum.
Methodik: Es wurde ein Fragebogen entwickelt, der die Bewertung der Studierenden hinsichtlich des aktuellen Ablaufs ihres Studiums, den späteren Berufswunsch sowie die Anforderungen an ein zu entwickelndes allgemeinmedizinisches Schwerpunktprogramm im ländlichen Raum erfasst. Mittels einer Online-Befragung wurden im Sommer 2015 alle Medizinstudierende ab dem vierten vorklinischen Semester (n=2.150) der Goethe-Universität Frankfurt einmalig befragt. Die statistische Auswertung erfolgte primär deskriptiv. Die persönliche Einstellung hinsichtlich der Bereitschaft, als Hausarzt tätig zu werden, wurde auf statistische Signifikanz überprüft. Zudem wurde erhoben, ob ein messbarer Zusammenhang zwischen der eigenen Herkunft und dem späteren Wunscharbeitsort besteht.
Ergebnisse: Von insgesamt 2.150 kontaktierten Studierenden nahmen 617 an der Befragung teil (Rücklaufquote=28,7%). Die Ergebnisse repräsentieren eine große Bandbreite an Ideen und Anregungen, die sowohl die Meinung von Befürwortern als auch eher kritisch gegenüber der Lehre in der Allgemeinmedizin eingestellten Medizinstudierenden widerspiegeln. Von dem geplanten Schwerpunktprogramm erwarten die Studierenden einen starken Praxisbezug ebenso wie das Kennenlernen administrativer sowie wirtschaftlicher Hintergründe zum Führen einer Praxis.
Schlussfolgerungen: Durch die Einbeziehung der Zielgruppe am Entwicklungsprozess bestand die Möglichkeit, das zu entwickelnde Schwerpunktprogramm auf die späteren Teilnehmer passgenauer zuzuschneiden. Zudem ist zu erwarten, dass die Beteiligung der Studierenden zu einer höheren Akzeptanz des Programms führt. Die gewonnenen Ergebnisse zur Gestaltung eines Lehrangebots können als Orientierung für die mögliche Entwicklung ähnlicher Schwerpunktprogramme an anderen medizinischen Fakultäten dienen.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
kurz und kn@pp news : Nr. 43
(2018)
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den zweiten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Im ersten Projektbericht (ebenfalls in dieser Arbeitspapierreihe erschienen – Nr. 15) wurden die Entwicklungen der letzten Jahre in den infrastrukturellen Themenfeldern Fahrradmitnahme, Fahrradverleihsysteme und Fahrradabstellanlagen aufgearbeitet und Fragen zu Kommunikation und Marketing der Angebote sowie zu Möglichkeiten der fortschreitenden Digitalisierung zur verbesserten Integration von Fahrrad und Öffentlichem Verkehr diskutiert. Darauf aufbauend werden im vorliegenden Bericht die Ergebnisse vertiefender Fallstudien dargestellt, mit dem Ziel, Erfolgsfaktoren und Hemmnisse für die Integration von Fahrrad mit Öffentlichem Verkehr aufzuzeigen und in einem späteren Schritt daraus Handlungsempfehlungen zur Stärkung dieser Integration für Kommunen und Verkehrsanbieter geben zu können. Für die Fallstudien wurden solche Beispiele ausgewählt, die einen Vorbildcharakter haben und als nachahmenswert für andere Städte und Regionen gelten können bzw. aus denen sich Erkenntnisse für die Stärkung der Integration von Fahrradverkehr mit dem ÖV ziehen lassen. Zudem sollten die verschiedenen infrastrukturellen Themenfelder abgedeckt sein. Neben einer Darstellung der jeweils fallspezifischen Besonderheiten wird zu jedem Fallbeispiel das Betreiber- und Geschäftsmodell dargestellt und es erfolgt eine Bewertung, die sowohl die Sicht der Betreiber als auch die der Nutzenden beachtet.
Folgende Fallbeispiele werden behandelt:
Die hessischen Verkehrsverbünde Rhein-Main-Verkehrsverbund (RMV) und Nordhessischer Verkehrsverbund (NVV) bieten eine kosten- und sperrzeitfreie Mitnahmeregelung für Fahrräder an.
Das MVGmeinRad Mainz ist als Fahrradverleihsystem ein Teil des kommunalen ÖPNV-Unternehmens.
Zu den Fahrradabstellanlagen an Bahnhöfen wurden in der Fallstudie drei unterschiedlich große Anlagen einbezogen: Dein Radschloss des Verkehrsverbundes Rhein-Ruhr (VRR) für kleine, das Radhaus Offenburg für mittelgroße und die Radstation Düsseldorf für große Standorte.
München wurde schließlich für eine kommunale Strategie zur verbesserten Verknüpfung von Fahrrad und Öffentlichem Verkehr ausgewählt, da dort eine Vielzahl von Maßnahmen zur Stärkung der Fahrradmobilität sichtbar sind.
Das Internet ist ein gigantisches Netzwerk von Maschinen. Während sich dessen konkrete Nutzung permanent weiterentwickelt, bleibt dessen Funktion im Kern doch immer der Austausch von Informationen. Die vielfältigen Institutionen der Internet Governance lassen sich als Versuch verstehen, diesen Austausch zu ermöglichen. Eine zentrale Rolle kommt dabei der Internet Corporation for Assigned Names and Numbers (ICANN) zu. Sie verwaltet das globale Adressbuch des Internets und legt so fest, wie weit das Netz des Internets reicht. Die technische Notwendigkeit einer solchen zentralen Instanz wird im Prinzip kaum bestritten. Zunehmend jedoch verschärfen sich die Konflikte darüber, wie weit deren Kompetenzen reichen und wer sie kontrollieren sollte. Letztlich, so möchte ich zeigen, geht es um die Frage, wieviel internationale Autorität in diesem Bereich der Internet Governance notwendig und legitim ist.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Innerhalb der Gentrifizierungsforschung analysiert die Rent‑Gap‑Theorie, wie kleinräumige Differenzen zwischen gegenwärtigen Verwertungsbedingungen einerseits sowie Erwartungen auf zukünftig steigende Mieten andererseits Verdrängungsprozesse antreiben. Dementgegen hat Eric Clark (2014) jüngst eingefordert, dass die Stadtforschung den Blick verstärkt darauf richten müsse, wie Verdrängung verhindert werden kann. Diesen Appell aufgreifend, zeigen wir bezogen auf den deutschen Kontext, inwiefern mietrechtliche Regularien, stadtplanerische Entscheidungen und die jeweilige Eigentümerstruktur wesentlich darüber entscheiden, ob sich ein immobilienwirtschaftlicher Verwertungsdruck auch tatsächlich in Verdrängungsprozesse übersetzt. Illustriert wird dies am Wandel der Eigentümerstruktur im Frankfurter Gallus seit den 1970er Jahren. Deutlich wird dabei, dass Gentrifizierung kein Naturgesetz darstellt, sondern ein zutiefst politischer Prozess ist, der sich effektiv verhindern lässt.
Diese Untersuchung basiert auf eine jahrelange Erfahrung des Verfassers in der Arbeit mit Kindern und Jugendlichen aus Armutsverhaltnissen innerhalb von Nichtregierungs-organisationen in Pernambuco/Brasilien. Als Grundlagen wird zunächst die Lebenserfahrung von verarmten Kindern und Jugendlichen im sozialen Alltag diskutiert. Dabei wird unser Blick auf deren Handeln als soziale Subjekte und Protagonisten gerichtet. Als weiteres wird die Entwicklung von Prinzipien einer Bildung durch Arbeit als sozialerzieherisch Konzept auf einem befreiungspadaegogischen Hintergrund (Educação Popular) dargestellt. Dazu werden einige Aspekt zu dem ganzheitlichen Verstandinis von Bildung als Gemeinschaftserfarung erortet. Die anschließende Auseinander setzung mit den Autoren Karl Marx, Antônio Gramisci, anton Seminióvith Makarenko, Celestin Freinet und Paulo Freire versteht sich als Beitrag zur Diskussion der Konzepts Bildung durch Arbeit in Einigen leitenden Prinzipien. Die in der nun folgende Fallstudie verwandten Daten wurden anhand einer Aktionsforchung (Pesquisa-ação) erhoben. Nach der Beschreibung der Hauptmerkmale und Konzepte der sozialerzieherischen Arbeit von fünf Bildungsprojekten in Pernambuco, werden die Lern und Arbeitswerkstatten in Hinsicht auf die Wissensproduktion und den Kompetenzerwerb analysiert. Dabei werden die humanitäre, gemeinschaftsbildende, Bildungsbezogene, kulturelle und entwicklungszogene Dimensionen dieses Wissens hervorgehoben.Im folgenden werden Fragen für den schulischen Bereich aufgeworfen. Abschließend werden Perspektiven und Vorschage zum weiteren Denken und Handeln über das Forchungsthema aufgezeigt.
Sissi im Film
(2018)
Die Straßen deutscher Städte werden überwiegend vom Automobil dominiert, was nicht nur die gebaute Umwelt prägt, sondern auch die politischen Entscheidungen beeinflusst, wenn es um die Verteilung des Straßenraumes geht. Dass jedoch am Anfang der Mobilität das Zufußgehen steht und ein gut geplanter städtischer Fußverkehr nicht nur einen Beitrag zur Sicherheit der Fußgänger*innen leistet, sondern auch die Zukunft urbaner Mobilität gewährleistet, wird oft vergessen. Obwohl der Fußverkehr zahlreiche Potentiale bietet, bekommt er im öffentlichen Raum deutlich weniger Entfaltungsspielraum zur Verfügung gestellt. Die Zufußgehenden werden dort häufig kanalisiert und an den Rand gedrängt, was Einfluss auf ihr Verhalten nimmt. Diese Marginalisierung der Fußgänger*innen wird zusätzlich hervorgerufen durch eine geringe Beachtung jener in der städtischen Planung und Politik sowie in der Wissenschaft und Gesellschaft. Demnach stehen sie im Konfliktverhältnis zur persistenten und sozial konstruierten Struktur der Straße.
Die vorliegende Untersuchung überprüft, warum die Fortbewegung zu Fuß in der gebauten Straßenumwelt und ihrer Raumaufteilung im Vergleich zu anderen Verkehrsmitteln eine untergeordnete Rolle spielt und welchen Einfluss der planerische und politische Umgang und die Gestaltung des Straßenraumes darauf nimmt. Dies geschieht mittels eines Fallbeispiels in Frankfurt am Main, der Schweizer Straße. Im Rahmen der Studie werden Ergebnisse aus teilnehmenden Beobachtungen der Zufußgehenden der Schweizer Straße und deren Verhaltensweisen im öffentlichen Straßenraum sowie aus qualitativen Interviews mit Expert*innen der gebauten Straßenumwelt Frankfurts zusammengetragen. Das übergeordnete Ziel der Arbeit ist, ein Verständnis für die Wechselwirkung zwischen Raumstruktur, planerischem Einfluss und Mobilität zu entwickeln sowie die Konflikte der Raumaufteilung für die Fußgänger*innen herauszuarbeiten, um den Fußverkehr gezielter fördern zu können.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Diabetes-assoziierte Fußulzerationen (diabetic foot ulcerations, DFU) repräsentieren eine schwerwiegende klinische Komplikation der Wundheilung. Bislang sind pharmakologische Behandlungsansätze diabetischer Wundheilungsstörung unzureichend und limitiert. Der Erkenntnismangel der zugrundeliegenden zellulären und molekularen Mechanismen gestörter Wundheilung ergänzt die unzufrieden stellende klinische Situation. In den vergangenen Jahren sind vermehrt zelluläre Wundverbände in den klinischen Fokus gerückt. Sie ermöglichen eine individuelle, dynamische Wundbehandlung und haben in den ersten klinischen Studien vielversprechende Ergebnisse gezeigt.
In der vorliegenden Arbeit ist ein zellulärer Wundverband der Firma Boehringer Ingelheim genutzt worden, um die Wundheilung in diabetischen db/db-Tieren zu analysieren. Der Wundverband (BAWD; biological active wound dressing) besteht aus humanen Keratinozyten, die auf einer Hyaluronsäure-haltigen Matrix kultiviert werden.
Nach topischer Anwendung der lebenden Wundauflage war eine Interaktion humaner Keratinozyten mit murinem Wundgewebe zu beobachten. Die gestörte diabetische Wundheilung in der db/db-Maus war nach BAWD-Behandlung in einem um 30 % verbesserten Wundverschluss und dem Aufbau qualitativ neuen Gewebes deutlich verbessert.
Aufgrund der unverändert hohen Expression von Zyto- und Chemokinen in der frühen und späten Heilungsphase wurde eine Dämpfung der Immunantwort ausgeschlossen. Vielmehr war eine BAWD-vermittelte differenzielle Immunzellverteilung festzuhalten. Zudem zeigten Whole-Genom-Sequenzanalysen eine BAWD-induzierte Expression von Genen auf, die regenerative M2-ähnliche M[Phi] charakterisieren.
Außerdem scheint die BAWD-Anwendung nach Auswertung immunhistochemischer Daten und über die signifikant erhöhte CD29-, CD44- und Sca1-mRNA-Expression die Rekrutierung heilungsfördernder MSCs zu begünstigen, denen ein potentiell anti-entzündlicher Charakter zugesprochen wird.
In dieser Arbeit konnte zudem ein neuer Regelkreis kutaner Wundheilung beschrieben werden, der auf Basis der Expression muskelspezifischer Faktoren und der transienten Ausbildung kontraktiler Elemente in der Wunde normal heilender Tiere beruht, die bislang nicht beschrieben wurden. Interessanterweise induzierte eine BAWD-Anwendung die Expression muskelspezifischer Gene und Proteine in der Wundheilung diabetischer Tiere. Möglicherweise stellt die Ausbildung kontraktiler Elemente neben der Differenzierung von Fibroblasten zu Myofibroblasten eine ergänzende Komponente für einen beschleunigten Wundverschluss dar. Diese Befunde eröffnen neue Möglichkeiten zu Verständnis und Therapie diabetischer gestörter Wundheilung im humanen Organismus.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Mehr als 6.600 Doktorandinnen und Doktoranden forschen an der Goethe-Universität Frankfurt am Main. Das und vieles mehr ergab die erste repräsentative Umfrage unter Promovierenden und ihren Betreuern, die im Auftrag der Universität durch das Berliner Institut für Forschungsinformation und Qualitätssicherung (iFQ) durchgeführt wurde. Das gute Ergebnis ist nicht zuletzt auf GRADE, die Goethe Graduate Academy, zurückzuführen, dem universitätsübergreifenden Zentrum für die Doktorandenausbildung. ...
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Der Name Histamin hat seinen Ursprung aus dem griechischen Wort "histos" (Gewebe) und spielt auf sein breites Spektrum an Aktivitäten, sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen an. Histamin ist eines der Moleküle mit welchem man sich im letzten Jahrhundert am intensivsten beschäftigt hat.
Im Jahr 1907 wurde das Histamin erstmals synthetisiert. Drei Jahre später gelang es, dieses Monoamin erstmals aus dem Mutterkornpilz Claviceps purpurea zu isolieren. Weitere 17 Jahre vergingen, ehe Best et al. Histamin aus der humanen Leber und der humanen Lunge isolieren konnten. Best konnte somit beweisen, dass dieses biogene Amin einen natürlichen Bestandteil des menschlichen Körpers darstellt. Nach der Entdeckung wurden dem Histamin mehrere Effekte zugeschrieben. Dale et al. beobachteten, dass Histamin einen stimulierenden Effekt auf die glatte Muskulatur des Darms und des Respirationstraktes hat, stimulierend auf die Herzkontraktion wirkt, Vasodepression und ein schockähnliches Syndrom verursacht.
Popielski demonstrierte, dass Histamin dosisabhängig einen stimulierenden Effekt auf die Magensäuresekretion von Hunden hat. Lewis wiederum beschrieb erstmals, dass Histamin einen Effekt auf der Haut hervorruft. Dies zeigte sich durch verschiedene Merkmale, wie geröteter Bereich aufgrund der Vasodilatation und Quaddeln aufgrund der erhöhten Gefäßpermeabilität. Des Weiteren wurde Histamin eine mediatorische Eigenschaft bei anaphylaktischen und allergischen Reaktionen zugeschrieben. Zusätzlich spielt das biogene Amin eine entscheidende Rolle im zentralen Nervensystem (ZNS), unter anderem beim Lernen, bei der Erinnerung, beim Appetit und beim Schlaf-Wach-Rhythmus. Von den zahlreichen physiologischen Effekten des Histamins ist seine Rolle bei Entzündungsprozessen, der Magensäuresekretion und als Neurotransmitter am besten verstanden.
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
Im Schulunterricht der deutschen Gymnasien hat die Vermittlung poetologischen Wissens im 19. Jahrhundert einen besonderen Platz eingenommen. Dabei wurde das Gebiet der Poetik jedoch sehr unterschiedlich dargestellt. Zum einen war die Poetik, die Lehre der Dichtkunst, seit dem 18. und während des gesamten 19. Jahrhunderts fortlaufend Veränderungen und Repositionierungen unterworfen. Zum anderen formte und entwickelte sich der moderne Deutschunterricht in dieser Zeit, stark beeinflusst durch die zeitgeschichtlichen Tendenzen der Verwissenschaftlichung, der Fächerdifferenzierung und der Nationalideologien. Als Konstante lässt sich jedoch über das gesamte Jahrhundert hinweg eine hohe Wertschätzung der Poetik als Unterrichtsfach erkennen. Daher wurden von Schulbuchverlagen von Beginn des 19. und bis in die 20er Jahre des folgenden Jahrhunderts hinein didaktische Poetiken veröffentlicht, die eine sehr lange und weite schulische Verwendung fanden.
In der hier vorgelegten Arbeit werden anhand einer Auswahl dieser Schulpoetiken die Grundargumente des Diskurses über Poetik herausgearbeitet und untersucht, wie sich diese im Laufe des Jahrhunderts veränderten. Dadurch wird eine Grundlage dafür geschaffen, das als gültig wahrgenommene Wissen über Form und Wesen der Literatur zu rekonstruieren, das sowohl die Leser aber auch die Schriftsteller beeinflusst hat, die aus den Schülergenerationen zwischen 1830 und 1920 stammen.
Aufgrund einer hohen Inzidenz und einer ungünstigen Prognose stellt die Behandlung von Patienten mit lebermetastasierten kolorektalen Karzinomen eine große Herausforderung in der klinischen Routine dar. Weiterhin sind die chirurgische Resektion und eine systemische Chemotherapie die Standards in der Behandlung dieser Patienten. Allerdings kommen viele Patienten für eine chirurgische Therapie aufgrund einer fortgeschrittenen Lebermetastasierung nicht in Frage. Eine relativ hohe Rezidivrate nach operativer Metastastenentfernung und ein Tumorprogress unter systemischer Chemotherapie stellen ein weiteres Problem dar.
Sind konventionelle Therapien ausgeschöpft, können von Seiten der interventionellen Radiologie eine Reihe minimal-invasiver Therapiemöglichkeiten angeboten werden.
Nach Zugang über die Arteria femoralis superficialis erfolgt bei der transarteriellen Chemoembolisation (TACE) unter angiographischer Kontrolle eine lokale Applikation von Chemotherapeutika und Embolisate in Blutgefäße von Lebermetastasen. Bei der perkutanen thermischen Ablation erfolgt eine Punktion von Lebermetastasen Computertomografie-gesteuert mit nachfolgender Tumordestruktion durch Hitze. Diese beiden Therapieverfahren können auch je nach klinischer Ausgangslage miteinander kombiniert werden.
Die vorliegende Arbeit umfasst 452 Patienten mit nicht-reseziebaren Lebermetastasen kolorektaler Metastasen die sich einer Therapie mittels TACE in 4-wöchigen Intervallen unterzogen. Dabei wurden 233 Patienten palliativ nur mit TACE behandelt, während 219 Patienten neoadjuvant mit TACE behandelt wurden, bevor eine perkutane thermische Ablation, entweder in Form einer Mikrowellenablation oder Laserablation durchgeführt wurde. Für beide Patientengruppen wurden das mediane Gesamtüberleben sowie das progressionsfreie Überleben ab der ersten TACE berechnet. Für beide Überlebenszeiten wurden ferner verschiedene Faktoren getestet, die potentiell eine prognostische Aussagekraft haben. Es wurde auch getestet auf welche Kombination an Chemotherapeutika das beste Ansprechen nach TACE erzielt wird.
Des Weiteren wurden von 34 Patienten gezielt 55 Lebermetastasen mit Diffusions-gewichteter MRT-Bildgebung (DWI) untersucht. Durch Dokumentation eines aus der DWI errechneten ‚apparenten Diffusionskoeffizienten‘ (ADC) wurde getestet ob damit eine Vorhersage über das Therapieansprechen erfolgen kann.
Einen Monat nach der ersten TACE zeigten 7 Metastasen ein Therapieansprechen, wobei kein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit und ohne Therapieansprechen bestand (p=0,94).
Drei Monate nach der ersten TACE zeigten 17 Metastasen ein Therapieansprechen. Es bestand ein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit (median 1,08x10-3mm²/s) und ohne Therapieansprechen (median 1,30x10-3mm²/s). Dabei zeigten prätherapeutische ADC Werte einen mäßigen Vorhersagewert für das Therapieansprechen (AUC 0,7).
Bei Metastasen die ein Therapieansprechen nach 3 Monaten zeigten wurde ein signifikanter Anstieg von ADC Werten beobachtet (p<0,001).
Mit einer Sensitivität von 77% und einer Spezifität von 74% konnte ein Ansprechen nach drei TACE Sitzungen vorhergesagt werden, wenn es zu einem Anstieg der ADC Werte um 12,17% kam (AUC 0,817). Zudem wurde eine starke und signifikante Korrelation zwischen dem prozentualen Anstieg der ADC Werte und einer prozentualen Größenänderung der Lebermetastasen beobachtet werden (r=0,651, p<0,001).
Die palliativ mit TACE behandelten Patienten zeigten ein Gesamtüberleben von 12,6 Monaten und ein progressionsfreies Überleben von 5,9 Monaten. Dagegen lag das Gesamtüberleben und das progressionsfreie Überleben der neoadjuvant behandelten Patienten mit folgender thermischen Ablation bei 25,8 und 10,8 Monaten.
Die Unterschiede im Gesamtüberleben und progressionsfreien Überleben zwischen den beiden Gruppen waren statistisch signifikant (p<0,001).
Extrahepatische Metastasten vor Therapie mit TACE waren ein signifikanter prognostischer Einflussfaktor in der Überlebensanalyse der neoadjuvant und palliativ therapierten Gruppe. Anzahl, Größe und Lokalisation waren ferner signifikante Faktoren für das Gesamtüberleben und progressionsfreie Überleben der neoadjuvanten Kohorte. Geschlecht, Lokalisation des Primärtumors, T- und N- Stadien des TNM-Klassifikationssystem des Primärtumors, zeitliches Auftreten der Lebermetastasen, Ablationsmethode und Patientenalter hatten keinen Einfluss auf das Überleben in beiden Kohorten. Das beste Ansprechen auf TACE wurde bei einer Verwendung einer Dreifachkombination von Chemotherapeutika beobachtet (p=0,021).
Zusammenfassend zeigt die Arbeit, dass die TACE eine effektive Therapie bei Lebermetastasen kolorektaler Karzinome darstellt. Eine Messung von ADC Werten erscheint ein potentieller Biomaker für das Ansprechen von Lebermetastasen zu sein.
Hintergrund: Obgleich die Carotisstentimplantation inzwischen eine etablierte Alternative zur Carotisendarterektomie geworden ist, existieren jedoch nur wenige Studien über Langzeitergebnisse nach Carotisstentimplantation.
Methoden: Zwischen Juli 1993 und August 2005 wurden fortlaufend alle Patienten nach einseitiger Carotisstentimplantation in diese Studie eingeschlossen, welche keine signifikante kontralaterale Stenose hatten. Eine Follow-up Untersuchung mittels Duplexsonographie und/oder Angiographie sowie eine neurologische Untersuchung erfolgten nach sechs und/oder zwölf Monaten. Danach wurden jährlich Fragebogen an die Patienten beziehungsweise den zuständigen Hausarzt verschickt.
Ergebnisse: Eine Carotisstentimplantation erfolgte bei 279 Patienten. In 99% der Eingriffe war die Stentimplantation erfolgreich. Die periprozedurale major und minor Schlaganfallrate lag bei 2.2%. Die periprozedurale major stroke oder Todesrate lag bei 2.9%. Im Median betrug die klinische Follow-up Zeit 49 ± 32 Monate (Spannbreite: 30 Tage bis 12.1 Jahre). Ausgenommen perioperativer (<30 Tagen) Ereignisse, lag die jährliche major und minor Schlaganfallrate bei 1.3% und die jährliche ipsilaterale major und minor Schlaganfallrate bei 0.6%. Bei den symptomatischen und asymptomatischen Patienten betrugen die jährliche major und minor Schlaganfallraten 2.2% und 0.8% und die ipsilaterale major und minor Schlaganfallraten lagen bei 1.1% und 0.3%. Im Hinblick auf die Langzeitergebnisse gab es keinen signifikanten Unterschied zwischen den ipsilateralen und kontralateralen Schlaganfallraten. Bezüglich der Restenosen zeigte sich im sonographischen Follow-up (innerhalb 36 ± 32 Monaten) eine Rate für symptomatische Stenosen von 5% und für asymptomatische Stenosen von 3%.
Schlussfolgerung: Unsere Studie zeigt eine sehr niedrige cerebrale Langzeitereignisrate nach Carotisstentimplantation. Die Sicherheit dieses Verfahrens konnte somit auch über einen langen Zeitraum bekräftig werden. Erwähnenswert ist hierbei, dass es keinen signifikanten Unterschied zwischen den Langzeitergebnissen von ipsilateralen und kontralateralen cerebralen Ereignissen gab, was die Hypothese der Plaque Stabilisation nach Carotisstentimplantation bestärkt.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Photolabile Schutzgruppen haben sich im Laufe der letzten Jahre als wertvolle Werkzeuge für die Untersuchung und Regulation biologischer Prozesse etabliert. Dabei wird die photolabile Schutzgruppe auf geeignete Weise mit Biomolekülen verknüpft, sodass deren Funktion temporär deaktiviert wird. Durch Bestrahlen mit Licht geeigneter Wellenlängen wird die photolabile Schutzgruppe entfernt und die Aktivität des Biomoleküls bzw. des zu beobachtenden Prozesses wiederhergestellt. Die Grundlagen der Verwendung photolabiler Schutzgruppen im biologischen Kontext wurden in zwei Pionierarbeiten 1977 von J.W. ENGELS und 1978 von J.F. HOFFMAN gelegt. Davon ausgehend haben sich zahlreiche Anwendungen photolabiler Schutzgruppen für biologisch interessante Molekülklassen entwickelt. Auf dem speziellen Gebiet der Nukleinsäuren wurden in den letzten Jahren einige fundamentale Mechanismen entdeckt und aufgeklärt, die nicht zuletzt auch therapeutisch interessante Anwendungsmöglichkeiten für photolabile Schutzgruppen bieten. Hierbei stellt das An-/Aus-Schaltverhalten von Nukleinsäuren jedoch ein nicht-triviales Problem dar. Selbst der gezielte Einbau einer einzelnen photolabilen Schutzgruppe in ein multifunktionales Oligonukleotid führt in der Regel nämlich nicht zu einer vollständigen Deaktivierung dessen. Ein multipler Einbau photolabiler Schutzgruppen entlang der Sequenz eines funktionellen Oligonukleotids schaltet die Hintergrundaktivität im deaktivierten Zustand zwar vollständig aus, allerdings müssen in diesem Fall hohe Bestrahlungsintensitäten bzw. –dauern für das Entfernen aller photolabilen Modifikationen angewendet werden. Dadurch geht zum einen die Zeitauflösung der lichtgeschalteten Prozesse verloren, nicht zuletzt erhöht sich dabei aber auch das Risiko von lichtinduzierten Schäden am biologischen System. Das Kernthema der vorliegenden Dissertation war es daher, neue Architekturen für den Aufbau photoaktivierbarer Oligonukleotide zu entwickeln.
Das erste große Projekt basierte auf der Annahme, dass sich Duplexstrukturen, die für die Funktion vieler Nukleinsäuremechanismen fundamental sind, durch Zyklisierung von Oligonukleotiden global destabilisieren und damit effizienter photoaktivieren lassen, als durch lokalen Einbau einzelner photolabiler Schutzgruppen in Oligonukleotide. Hierzu wurden geeignete Alkin-Modifikationen an photolabile Nitrobenzyl- und Cumarin-Schutzgruppen angebracht und diese an die Nukleobasen verschiedener DNA-Bausteine geknüpft. Es ist daraufhin gelungen, Oligonukleotide mit je zwei photolabilen Alkin-Modifikationen herzustellen und diese intrasequentiell über eine Cu(I)-katalysierte Click-Reaktion mit einem Bisazid-Linker zu zyklisieren. Die so erhaltenen Oligonukleotide wiesen dramatisch erniedrigte Schmelzpunkte gegenüber den nativen Duplexen, sowie gegenüber den zweifach photolabil geschützten Oligonukleotiden auf. Dabei wurde außerdem festgestellt, dass Zyklisierungsparameter wie die Linkerlänge, -polarität und –flexibilität und die Wahl der photolabilen Schutzgruppe keinen signifikanten Einfluss auf die Duplexstabilität hat. Über einen Bereich von Ringgrößen zwischen ca. 11-21 Nukleotiden wurden die niedrigsten Duplexstabilitäten beobachtet. Sehr kleine, sowie große Ringe ab 30 Nukleotiden wiesen dagegen höhere Stabilität auf.
Da mit dem entwickelten Zyklisierungskonzept auch mehrere Ringstrukturen innerhalb einer Oligonukleotidsequenz aufgebaut werden können, wurde im nächsten Schritt eine photoaktivierbare Variante des C10-Aptamers hergestellt, welches selektiv gegen Burkitt’s Lymphomzellen bindet. Dieses 90-mer DNA-Oligonukleotid wurde an drei Stellen photolabil Alkin-modifiziert und infolge mit einem Trisazid-Linker zu einer bizyklisierten Struktur verknotet. Mit Hilfe von Fluoreszenzmikroskopie-Experimenten konnte demonstriert werden, dass das durch eine solche „Photo-Klammer“ deaktivierte C10-Aptamer keine Bindungsaffinität gegenüber Burkitt’s Lymphomzellen aufweist, die Bindungsaktivität jedoch nach Belichten wiederhergestellt werden kann. Mit Atomkraftmikroskopie-Experimenten ist es darüber hinaus gelungen, die Photoaktivierung des verknäuelten C10-Aptamers mit molekularer Auflösung abzubilden. Mit diesem Ergebnis können nun lange funktionelle Oligonukleotide auf definierte Weise photoaktivierbar gestaltet werden, insbesondere auch dann, wenn keine (Informationen über) funktionelle Sekundärstrukturen existieren.
...
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Das Ziel der vorliegenden publikationsbasierten Dissertation liegt darin, ein Erhebungskonzept zu entwickeln, das es erlaubt, ICT-Skills – das heißt Fertigkeiten für das Lösen von Aufgaben in einer Informations- und Kommunikationstechnologie-Umgebung – theoretisch fundiert zu erheben sowie die Validität der intendierten Testwerteinterpretation empirisch zu untersuchen. Die Testwerte sollen als ICT-spezifische Fertigkeiten höherer Ordnung interpretiert werden.
Für die Erfassung von ICT-Skills kann auf keine lange Forschungstradition zurückgegriffen werden. Daher ist es das Ziel der ersten Arbeit, eine Rahmenkonzeption zur Messung von ICT-Skills zu erstellen. Dabei werden drei Ziele verfolgt: Erstens soll für die Itementwicklung spezifiziert werden, auf welchen generischen und ICT spezifischen Fertigkeiten ICT-Skills basieren. Mithilfe etablierter psychologischer Theorien aus den relevanten Fertigkeitsbereichen werden kognitive Schwierigkeiten bei der Bewältigung von ICT-Aufgaben beschrieben, die als Grundlage für die Entwicklung der Items dienen. Zweitens werden für die Implementierung der Items Rationale für deren Erstellung in einer simulationsbasierten Umgebung formuliert, die es erlauben sollen, die intendierten kognitiven Prozesse realitätsnah in den Items abzubilden. Obgleich diese Arbeit einen konzeptionellen Fokus hat, besteht das dritte Ziel darin, die Rahmenkonzeption empirisch zu erproben, um zu beurteilen, ob die Rahmenkonzeption zur Itementwicklung und -implementierung geeignet war.
Aus der Rahmenkonzeption, die ein breites Spektrum relevanter ICT-Aufgaben für die Erfassung sowie eine simulationsbasierte Erhebung vorsieht, resultieren sehr heterogene Items. Deshalb unterscheiden sich ICT-Skills-Items von eher homogenen Itempools, wie sie typischerweise zur Erfassung von Konstrukten der psychologischen Leistungsdiagnostik, etwa zur Intelligenzdiagnostik, verwendet werden. Aus diesem Grund ist für die Konstruktvalidierung der Testwerteinterpretation, die das Ziel der zweiten und dritten Arbeit darstellt, zunächst konzeptionelle Forschungsarbeit nötig, um angemessene Validierungsstrategien für heterogene Items zu entwickeln. Diese in der zweiten und dritten Arbeit erforderlichen konzeptionellen Beiträge bedingen die Struktur dieses Rahmentextes, in dem zunächst die konzeptionellen Beiträge aller drei Arbeiten vorgestellt und anschließend alle empirischen Ergebnisse berichtet werden. Die konzeptionellen Entwicklungen für die Validierung der intendierten Interpretation der Testwerte orientieren sich an Vorgehensweisen der psychologischen Leistungsdiagnostik, der nomothetischen Spanne und der Konstruktrepräsentation (vgl. Embretson, 1983). Mit diesen wird untersucht, inwiefern sich die zentralen Annahmen der Rahmenkonzeption aus der ersten Arbeit, nämlich die bei der Aufgabenlösung involvierten Fertigkeiten und kognitiven Prozesse, in den Testwerten widerspiegeln.
Das Ziel der zweiten Arbeit besteht darin, die nomothetische Spanne von ICT-Skills zu untersuchen und den postulierten Zusammenhang mit generischen und ICT-spezifischen Fertigkeiten empirisch zu untersuchen. Neben dem klassischen Ansatz, der Zusammenhänge über alle Items hinweg betrachtet, wird das Zusammenspiel verschiedener Fertigkeiten auch auf Itemebene analysiert. Darüber hinaus sollen potentielle Variationen in den Zusammenhängen über die sehr heterogenen Items durch Merkmale erklärt werden, welche für diese Heterogenität bezeichnend sind. Die empirischen Ergebnisse dienen – basierend auf den in der Rahmenkonzeption definierten Fertigkeiten – als Evidenzen für die Validität der Testwerteinterpretation.
Das Ziel der dritten Arbeit ist es, die Konstruktrepräsentation zu untersuchen, indem Evidenzen für die intendierten kognitiven Prozesse in der Itembearbeitung gesammelt werden. Klassischerweise werden in homogenen Itempools Itemmerkmale zwischen Items verglichen und wenn möglich quantifiziert, um die Schwierigkeit in Items zu beschreiben. Da die Items sehr heterogen sind, wurden zwei experimentelle Ansätze entwickelt, die diese kognitiven Prozesse in Itemvarianten verändern oder eliminieren. Die Auswirkungen dieser Manipulationen werden in Bezug auf die Itemschwierigkeit und den Zusammenhang mit anderen Konstrukten untersucht. Verändert werden die in der Rahmenkonzeption abgeleiteten schwierigkeitsdeterminierenden Merkmale, um zu untermauern, dass die ICT Skills Items ICT-spezifische Fertigkeiten erfordern. Eliminiert werden alle Merkmale die Fertigkeiten höherer Ordnung erfordern sollten. Mit diesen experimentellen Strategien können die zentralen Punkte der intendierten Testwerteinterpretation untersucht werden.
Neben den empirischen Ergebnissen zur Untermauerung der intendierten Testwerteinterpretation für den entwickelten ICT-Skills-Test ist der Erkenntnisgewinn dieser Arbeit auch in den konzeptionellen Beiträgen zu sehen. Mit diesen wurde exemplarisch gezeigt, wie ein Konstrukt wie ICT-Skills erfasst werden kann, indem man sich an den Vorgehensweisen der psychologischen Leistungsdiagnostik orientiert und dabei auf Annahmen kognitiver Prozesse zurückgreift.
In der vorliegenden Arbeit sollte der Einfluss von langjährigem Lastkraftwagenfahren auf die posturale Kontrolle untersucht werden. Hierzu wurden die Auswirkungen verschiedener Einflussfaktoren, die mit langjährigem Lastkraftwagenfahren assoziiert sind, im Hinblick auf die posturale Kontrolle analysiert. In diesem Rahmen wurden auf einer Autobahnraststätte in Deutschland 180 (179m/1w) Lastkraftwagenfahrer im Alter von 21 bis 65 Jahren mit einer Berufserfahrung von 1 bis 45 Jahren untersucht. Mit Hilfe eines Fragebogens wurden Informationen über die Arbeitszeit und den Gesundheitszustand der Lastkraftwagenfahrer, wie beispielsweise bestehende Rückenschmerzen oder Sportverhalten, erhoben. Für die Messung der Parameter der posturalen Kontrolle in habitueller Standposition wurde die Druckmessplatte GP Multisens der Firma GeBioM (Münster, Deutschland) verwendet. Es wurde die prozentuale Druckverteilung im Vorfuß-Rückfußbereich für den linken und rechten Fuß gemessen. Des Weiteren konnte die Körperschwankung in frontaler (anterior/posterior) und sagittaler (medial/lateral) Ebene aufgezeichnet werden. Dadurch lassen sich unter anderem Rückschlüsse auf eine Verlagerung des Körperschwerpunktes ziehen. Die statistische Auswertung erfolgte mit Hilfe des Statistikprogrammes BiAS Version 11.0 (2015). Die erhobenen Daten wurden unter Verwendung des Kolmogoroff-Smirnoff-Lillifors-Tests auf Normalverteilung getestet. Das Signifikanzniveau lag bei α=5%. Daneben wurde ein zweiseitiges 95%-Konfidenzintervall sowie der Toleranzbereich der Daten berechnet. Da keine Normalverteilung der Daten vorlag, wurde der Kruskal Wallis Test mit anschließender Bonferoni-Holm Korrektur zum Vergleich der Daten eingesetzt. Die Korrelationen wurden durch einfache, lineare Korrelation nach Pearson oder Rang-Korrelation nach Spearman & Kendall berechnet. Die Studienteilnehmer wurden zusätzlich gemäß ihres BMI, ihrer bereits als Lastkraftwagenfahrer geleisteten Arbeitsjahre, nach bestehenden Rückenschmerzen und nach sportlicher Betätigung jeweils verschiedenen Gruppen zugeordnet. Die Gruppen wurden anschließend hinsichtlich der gemessenen Parameter miteinander verglichen. In Bezug auf ein zunehmendes Alter konnte eine signifikant zunehmende sagittale Schwankung (p ≤ 0,01) sowie eine erhöhte Belastung des rechten Fußes (p ≤ 0,01) gemessen werden. Im Vergleich zwischen normalgewichtigen und übergewichtigen Lastkraftwagenfahrern zeigten sich signifikante Unterschiede hinsichtlich der gemessenen Parameter der posturalen Kontrolle. Es konnte beobachtet werden, dass es mit zunehmenden BMI zu einer erhöhten Schwankung in frontaler (p ≤ 0,04) und sagittaler (p ≤ 0,001) Ebene kommt. Hinsichtlich der Fußdruckbelastung kam es zu keinen signifikanten Veränderungen zwischen den BMI-Gruppen. Lastkraftwagenfahrer mit mehr Arbeitsjahren zeigten erhöhte frontale und sagittale Körperschwankungen. Es lag eine signifikante, positive Korrelation zwischen der frontalen Schwankung und einer Zunahme der Arbeitsjahre (p ≤ 0,04) vor. Auch bei der sagittalen Schwankung bestand eine signifikante Korrelation (p ≤ 0,01). Lediglich bei der Belastung des rechten Vorfußes konnte eine signifikante Korrelation nachgewiesen werden (p ≤ 0,01), während bei den anderen Parametern der Fußbelastung keine signifikante Korrelation belegt werden konnte. Im Gruppenvergleich nach Arbeitsjahren zeigte sich, dass mit ansteigenden Arbeitsjahren als Lastkraftwagenfahrer zu einem Anstieg des BMI kommt. Im Vergleich von Lastkraftwagenfahrern mit und ohne Rückenschmerzen waren keine signifikanten Unterschiede bei den gemessenen Parametern der posturalen Kontrolle nachweisbar. Auch bei der Analyse des Einflusses von sportlicher Aktivität auf die posturale Kontrolle konnte kein Unterschied zwischen der Gruppe mit sportlicher Aktivität und ohne sportliche Aktivität gemessen werden.
Mit dieser Studie konnten die gesundheitsgefährdenden Einflüsse des Lastkraftwagenfahrens auf die posturale Kontrolle nachgewiesen werden. Vor allem das langjährige Sitzen und der erhöhte BMI haben einen Einfluss auf die Körperstabilität und stören die Kompensationsmechanismen der Aufrechterhaltung der posturalen Kontrolle. Die genauen Steuerungsmechanismen der Körperstabilität sind sehr komplex und wurden in dieser Studie nicht im Einzelnen analysiert. Um welche konkreten Strukturen es sich handelt, die durch das langjährige Lastkraftwagenfahren gestört werden, kann mit den Ergebnissen dieser Studie nicht erfasst werden.
Die Wandreliefs aus dem Nordwest-Palast Aššurnasirpals II. (883-859 v. Chr.) in Nimrud zählen zu den forschungsgeschichtlich frühesten und bedeutendsten Funden des Alten Orients. Sie befinden sich heutzutage in zahlreichen Sammlungen weltweit und bieten durch ihre Darstellungen einen tiefgreifenden Einblick in die assyrische Kultur. Insbesondere Kontext und Position der Reliefs bieten Hinweise zur Bedeutung der dort angebrachten Figuren. Zwar ist eine ‚Schutzfunktion‘ vergleichbarer Repräsentationen textlich bezeugt – jedoch bisher nur unter Vorbehalt auf die Reliefdarstellungen zu übertragen. An dieser Stelle kann die Systematisierung ikonographischer Details in Abhängigkeit von ihrem Anbringungsort konzeptionelle Aspekte erkennbar machen.
Durch eine relationale Datenbank und dreidimensionale Visualisierungstechniken wird geprüft, ob die stilistische Variationsbreite ikonographischer Details eine potentielle Systematik aufweist; ebenso, bis zu welchem Grad die jeweilige Form eines bestimmten Zeichnungsdetails einem intentionalen Anbringungskonzept entspricht. Als Teil dieser Vorgehensweise fungiert die in diesem Zusammenhang generierte 3D-Rekonstruktion als methodisch unterstützende Maßnahme. Sie ermöglicht sowohl eine moderne Zusammenführung ehemals benachbarter Reliefplatten unabhängig ihres gegenwärtigen Aufbewahrungsortes als auch die Wiederherstellung heute kaum noch sichtbarer Gewandverzierungen und Pigmentreste.
Anhand der Ergebnisse wird deutlich, dass eine Systematisierung der Reliefdetails mittels 3D-Modell einen erweiterten Erkenntnisfortschritt impliziert und – nicht zuletzt aufgrund der zurückliegenden Zerstörungen der Palastruine und der damit verbundenen unwiederbringlichen Verluste – auch weitere Untersuchungen unterstützen können.
Berufsmusiker haben durch spezifische körperliche und psychische Belastung ein erhöhtes Risiko im Laufe ihres Lebens an einer CMD zu erkranken.
Mehrere Stunden täglich nehmen vor allem Orchestermusiker eine sitzende Zwangshaltung ein und führen immer wieder die gleichen, einseitigen Bewegungsmuster durch. Leistungsdruck und Lampenfieber können zusätzlich zu Muskelverspannungen und Bruxismus führen. Beides hat direkte oder indirekte Auswirkungen auf das CMS. Einseitige sitzende Körperhaltung und Bewegung belasten den ganzen Bewegungsapparat. Bläser und Streicher üben zusätzlich Druck auf Zähne und Kiefer aus, indem sie beim Halten und Spielen ihres Instrumentes direkten Kontakt zum CMS herstellen. Unbewusstes Pressen und Knirschen mit den Zähnen belastet Kiefer und Kiefergelenk in hohem Maße.
Leider gibt es bisher nur wenig aussagekräftige Literatur, in der der eindeutige Zusammenhang zwischen dem Spielen eines Musikinstrumentes und der Entstehung einer CMD belegt wird. Um Prävention betreiben zu können und um bestehende Beschwerden behandeln zu können, ist es dringend notwendig, das Thema „Musiker und CMD“ eingehender zu untersuchen.
Im Rahmen der vorliegenden Arbeit wurden 32 Musiker des hr-Sinfonieorchesters befragt und untersucht. Die Musiker wurden zum Vergleich in zwei Gruppen eingeteilt. Gruppe 1 bestand aus hohen Streichern wie Geigern und Bratschern. Gruppe 2 bestand aus Bläsern und allen anderen möglichen Musikern des Orchesters. Es wurden mittels Abdrucknahme Modelle von Ober- und Unterkiefer hergestellt. Durch dreidi-mensionale Zuordnung der Kiefer in angenommener Zentrik und im Vergleich dazu in maximaler Interkuspidation wurde eine Kondylenpositionsanalyse durchgeführt. Die gesamte Gruppe der Musiker wurde mit einer Gruppe bestehend aus 48 gesunden jungen Nicht-Musikern im Alter zwischen 16 und 19 Jahren verglichen. Die Messdaten dieser Kontrollgruppe stammten aus der Habilitationsschrift „CMD bei Kindern und Jugendlichen“ (2004; Kopp, S.).
Es konnte festgestellt werden, dass die Position der Kondylen in den Kiefergelenken aller Musiker im Vergleich zur zentrischen Position verändert war, während dies bei der Kontrollgruppe nicht oder nur in geringem Umfang der Fall war. Die veränderte Position des Unterkiefers und seiner Gelenkenden stand im Zusammenhang mit einer veränderten Okklusion.
Daraus kann geschlossen werden, dass das langjährige, intensive Spielen eines Musikinstrumentes Auswirkungen auf Form und Stellung der Zähne sowie die Position der Kondylen im Kiefergelenk hat.
Die Veränderung fand auf der rechten und linken Seite in gleichem Maße statt. Eine Asymmetrie war also nicht festzustellen. Zudem stellte sich heraus, dass sich die Positionsänderung der Kondylen bei beiden Musikergruppen ähnlich darstellte. Angesichts der sehr unterschiedlichen, teils asymmetrischen Körperhaltungen ist dies erstaunlich. Im Schnitt fand bei allen Musikern eine Verlagerung der Kondylen nach kranial und dorsal statt.
Anhand der Ergebnisse kann die Schlussfolgerung gezogen werden, dass das intensive Spielen eines Musikinstrumentes das kraniomandibuläre System in hohem Maße belastet und zu langfristigen Veränderungen der beteiligten Strukturen führt. Die genaue Untersuchung der Ursachen sowie eine mögliche Beeinflussung des Wachstums von Musikern schon in jungem Alter als Grundlage für eine spätere CMD-Erkrankung sollten Gegenstand weiterer Studien sein.
Martin M. Winkler, University Professor und Professor of Classics an der George Mason University bei Washington D. C. (USA), wuchs in Deutschland bei Münster auf und ist ein versierter Kenner der griechischen und römischen Literatur, der antiken Mythologie und der römischen Geschichte. Insbesondere gilt dies jedoch für das seit einigen Jahren "entdeckte" und zunehmend mit zahlreichen Beiträgen auf internationaler Ebene beackerte Feld der Rezeptionsgeschichte, also der Beziehung zwischen antiker Realgeschichte und deren Verarbeitung in unterschiedlichen Medien. Schon immer war geschichtlicher Stoff Gegenstand eines umfangreichen Schrifttums in seinen verschiedensten Formen wie etwa von Geschichtsschreibung, Dokumentation, Dichtung oder Roman, aber auch von Libretti für das Theater, von Malerei, Musik oder monumentaler Architektur. Seit dem 20. Jahrhundert sind mit Film und Fernsehen sowie der digitalen Welt weitere Medien hinzugekommen, die ihrerseits mit unterschiedlichen Formaten eigene Zielgruppen bedienen. ...
Der Leittitel des hier zu besprechenden Buches mag zunächst überraschen, vielleicht auch befremden, in jedem Fall weckt er aber die Neugier einer potentiellen Leserschaft. Der Untertitel verdeutlicht dann das spezielle Anliegen, welches die Herausgeber mit der Veröffentlichung von Vorträgen einer ebenso betitelten interdisziplinären Tagung verbanden, die im September 2014 an der Rheinisch-Westfälischen Technischen Hochschule Aachen stattfand. Im kurzen Vorwort werden die beiden zentralen Ansätze, welche die Tagung verfolgte, erläutert: Zunächst sollten die nicht-narrativen Quellen zur Herrschaft des Antoninus Pius, deren Basis aufgrund mancher Entdeckungen und Aussagemöglichkeiten sich in der jüngeren Zeit beachtlich verbreitert hat, in den Mittelpunkt der Diskussion von Spezialisten unterschiedlicher Fachrichtung gerückt werden. ...
Zu Ciceros "Philippischen Reden" sind in den letzten Jahren mehrere Untersuchungen in monographischer Form vorgelegt worden, dabei zumeist philologisch-historische Kommentare, die von einem Text und einer Übersetzung begleitet werden. In ihrer Dissertation möchte K. H(edemann) das "Antoniusbild" in den Philippischen Reden Ciceros untersuchen. Die Einleitung verspricht, dass eine "differenzierte Charakterisierung des Antonius" (16) erfolgen soll und, so wenig später, ein "realitätsnaher Blick auf Antonius" (39). Auch dieses Ziel, die Entlastung der von Cicero diffamierten Persönlichkeit des Antonius, spielte bereits in verschiedenen Spezialstudien zu diesem Rede-Corpus eine wichtige Rolle. ...
Bei der hier vorzustellenden Publikation handelt es sich um eine Zusammenstellung von Aufsätzen des Autors zur Geschichte und Archäologie von Mainfranken in der Antike. Nur die Einführung "Römer, Germanen und der Main" (11-19) ist eine Erstveröffentlichung, in welcher der Untersuchungsraum näher vorgestellt wird: Zwar wird die Bedeutung des Mains, der stark gewunden ist, als Schifffahrtsweg in römischer Zeit als gering eingeschätzt, dennoch wurde über ihn sicherlich etliches Bauholz aus den Wäldern des Spessarts, Odenwalds und Steigerwalds an den Rhein transportiert. Auch als Verkehrsweg nach Germanien hinein spielte der Main keine große Rolle und man bevorzugte – so Steidl – eher den Landweg. Das Bemühen der Römer, hier eine Infrastruktur aufzubauen, endete mit der Varusschlacht; die Mainregion diente von nun an nur noch als Ressourcenquelle außerhalb des römischen Herrschaftsbereichs. ...
Seit Egon Flaigs bahnbrechender Habilitationsschrift "Den Kaiser herausfordern" wird der Prinzipat in weiten Teilen der (deutschsprachigen) Forschung als Akzeptanzsystem betrachtet. Demnach hing die Macht des Kaisers von der Erfüllung der Erwartungen relevanter Gesellschaftsgruppen ab. Eine dieser Gruppen war der Senat. Mit dem Akzeptanzsystem als methodischem Rüstzeug rückt meist das Verhältnis zwischen Kaiser und Senat, nicht der Senat als solcher in den Fokus. Wo aber der Senat zentraler Untersuchungsgegenstand ist, geht es mitunter sehr zentral um die Angehörigen des ordo senatorius. Beide Tendenzen unterläuft Simone Blochmann in ihrer Dissertation ganz gezielt, indem sie den Senat als Institution in den Blick nimmt. ...
In mehreren Fragmenten der Universalgeschichte des Nikolaos von Damaskus (64-4 v. Chr.) werden Fälle von Anthropophagie thematisiert. Diese Überlieferungen gehen zwar auf ältere Quellen zurück (schließlich hat der Geschichtsschreiber sein Werk weitgehend kompiliert), allerdings wählte Nikolaos seine Vorlagen bewusst aus und setzte individuelle Akzente, sodass die Betrachtung von Erzählmotiven zu einer Erschließung der Universalgeschichte beitragen kann. Die Belege für Anthropophagie bei Nikolaos werden hier erstmals zusammengestellt und untersucht. Im Zentrum der Analyse steht die Frage nach dem diskursiven Umgang des Historikers mit dem Phänomen sowie nach der Funktion des Narrativs in seinem Werk.
Im politischen Denken der griechisch-römischen Antike sind quantifizierende Betrachtungen weitaus weniger stark vertreten als qualifizierende. Wenn sie vorkommen, dann gewöhnlich in der Weise, dass die Relation zwischen Größerem und Kleinerem in den Blick genommen wird, etwa zwischen Gemeinwesen unterschiedlicher Größe bzw. zwischen verschieden großen politisch aktiven Gruppierungen innerhalb eines Gemeinwesens oder aber dergestalt, dass Größe explizit goutiert wird, beispielsweise im Hinblick auf das Ausmaß einer bestimmten Herrschaft. Eine dezidiert kritische Auseinandersetzung mit Größe oder gar eine positive Konnotation von Kleinem begegnen dagegen weitaus seltener. ...
"... et quod hodie exemplis tuemur, inter exempla erit." Mit diesen Worten beendete der römische Historiograph Publius Cornelius Tacitus die von ihm konzipierte Version der Gallierrede aus dem Jahr 48 n. Chr., die er dem römischen Princeps Claudius in den Mund gelegt hatte. Tacitus griff hier mit den Exempla der Vorfahren ein wichtiges Argument der konservativen römischen Nobilität auf, durch das diese ihr Handeln häufig legitimierte, und ließ es seinen Claudius dafür nutzen, um die Aufnahme von gallischen Notabeln, also eine auf den ersten Blick noch nie dagewesene Neuerung, zu rechtfertigen. Dazu wählte er beispielhafte Episoden aus der römischen Geschichte, die verdeutlichten, dass die Vorfahren selbst ebenfalls Neuerungen zugelassen hatten, die sich im Nachhinein als sehr wichtig für die römischen Erfolge herausgestellt hatten. Damit widersprächen Neuerungen folglich nicht dem mos maiorum, dem für das römische Moralverständnis grundlegenden Wertekanon, sondern seien vielmehr integraler Bestandteil desselben. ...
Helmuth Schneider war von 1991 bis 2011 Professor für Alte Geschichte an der Universität Kassel. Zu seinem 70. Geburtstag haben sein Nachfolger, Kai Ruffing, und Kerstin Droß-Krüpe, gleichfalls Althistorikerin in Kassel, eine Sammlung 23 wichtiger Publikationen des Jubilars neu herausgegeben, wobei die Auswahl mit dem Geehrten abgestimmt wurde. Dankenswerterweise wurden die Artikel nicht nur neu gesetzt, sondern es wurde auch Wert gelegt auf die Angabe der ursprünglichen Seitenzahlen, so dass ein Auffinden einzelner Stellen unproblematisch ist. ...
In der hier zu besprechenden Arbeit von R. Brendel, einer überarbeiteten und ergänzten Fassung der an der LMU München im Oktober 2013 eingereichten Dissertation, werden, wie es der Verlag Dr. Kovač ankündigt, "erstmals vollständig sämtliche mit Julian in Verbindung stehende[n] Gesetzestexte gesammelt, in Übersetzung vorgelegt und ausgewertet". Neben den Werken von S. Conti über die Inschriften Julians und Th. Fleck über die Portraits wird damit ein weiteres Themenfeld für den Kaiser systematisch erschlossen, der nach wie vor moderne Forscher in seinen Bann zieht. Als methodisch weiterbringend erachtet der Verf. es auch, die spätantiken und frühmittelalterlichen Kommentare wie die Summaria antiqua Codicis Theodosiani und die Summa Perusina Codicis Iustiniani (zit. S. 446) heranzuziehen. ...
Die ursprünglich über zwei Meter hohe Inschrift von Paros, im Folgenden hier gemäß der gängigen Konvention als Marmor Parium bezeichnet, stellt einen faszinierenden Text dar, der in den Altertumswissenschaften jedoch kaum größere Beachtung erfährt. Umso erfreulicher ist es, dass sich Andrea Rotstein in einer monographischen Abhandlung eingehend damit beschäftigte und erstmals seit über 100 Jahren auch eine neue Edition mitsamt englischer Übersetzung vorlegte. ...
In einer Zeit, in der man sich zuweilen fast schon entschuldigen zu müssen glaubt, wenn man keinen strikt vegetarischen Lebensstil pflegt, ist die Lektüre dieses Buches eine wahre Wohltat: Die sinn- und einheitsstiftende Funktion von Fleisch, Fleischkonsum und damit verbundener Bereiche wie Festmahl und Jagd sind Thema von Egbert J. Bakkers (im Folgenden B.) Monographie, die außerdem mit einer Länge (bzw. Kürze) von knapp zweihundert Seiten einen angenehmen Kontrapunkt zu zahlreichen überlangen Wälzern setzt. Der Hauptteil des Buches ist gegliedert in acht durchschnittlich ca. zwanzig Seiten umfassende Kapitel, gefolgt von einem ‚Epilog‘ (der jedoch eigentlich ins erste Kapitel gehört). Um den Hauptteil herum angeordnet sind die üblichen Paraphernalien: zu Beginn ein Vorwort ("Preface", S. ix) sowie eine Kurzeinführung mit einer gerafften Übersicht über den Aufbau des Buches und den Inhalt der einzelnen Kapitel ("Prologue: food for song", S. x-xiii); am Ende die Bibliographie (S. 170-181) sowie ein Stellen- und Sachindex (S. 182-187 bzw. 188–191). ...
Die Besitznahme der Oberrheinlande durch Rom – Aspekte einer Bevölkerungs- und Militärgeschichte
(2017)
Römer, Kelten und Germanen haben ihren festen Platz in der historischen Erinnerung. Dies betrifft nicht nur epochale Vorgänge und Ereignisse von weitreichender, gleichsam weltgeschichtlicher Bedeutung, sondern auch solche von begrenzter zeitlicher wie räumlicher Relevanz. Letzteres gilt auch für das Gebiet von Hoch- und Oberrhein mit einer eigenen Geschichte, die selbstverständlich ihrerseits zugleich in übergreifende historische Prozesse eingebettet ist. Im Folgenden wollen wir uns eingehender nur mit der frühen Phase der Begegnung zwischen Römern und jenen Völkerschaften befassen, die gemeinhin den Kelten bzw. den Germanen zugeordnet werden, und einige wichtige Aspekte der Bevölkerungsgeschichte der Oberrheinlande am Übergang von der Latènezeit zur römischen Epoche thematisieren. Mit dieser eng verbunden ist die römische Heeresgeschichte, der wir für die Zeit von Caesars Feldzug in Gallien bis zum Ende der iulisch-claudischen Dynastie wenigstens in einigen Grundzügen nachgehen wollen. Die unter ganz anderen historischen Bedingungen erfolgten Angriffe mit der folgenden Landnahme der Alamannen und Franken ab dem 3. Jahrhundert n. Chr. blenden wir aus; dies wäre Gegenstand einer eigenen Analyse. Trotz bemerkenswerter Fortschritte der jüngeren Vergangenheit ist allerdings nicht zu übersehen, dass nach wie vor eines der Hauptprobleme der modernen Forschung zur frühen Geschichte des hier im Zentrum des Interesses stehenden Raumes im sachgerechten Verständnis des Übergangs von der protohistorischen zur römischen Epoche besteht. Jedoch scheint zumindest darin weitgehend Konsens zu bestehen, dass – wie Lars Blöck in seiner jüngst publizierten, detailreichen Dissertation zur Besiedlung des südlichen Oberrheingebietes vermerkt. – "der Übergang von der Spätlatène- zur römischen Zeit innerhalb der Besiedlungsgeschichte [---] einen tiefgreifenden Einschnitt darstellt." ...
Durch die stille Luft glitt eine Taube herab und schwebte zärtlich Aretulla dort, wo sie saß, geradewegs auf den Schoß. Ein Spiel des Zufalls konnte das nicht sein, doch sie blieb, ohne daß man sie bewachte, und weigerte sich wegzufliegen, obwohl ihr die Flucht erlaubt war. Wenn es der liebenden Schwester vergönnt ist, auf eine Besserung der Lage zu hoffen, und wenn Bitten den Herrn der Welt zu rühren vermögen, dann ist dieser Vogel vielleicht von den sardischen Küsten des Verbannten zu dir als ein Bote gekommen, und dein Bruder wird alsbald zurückkehren. ...
Nördlich von Euskirchen-Rheder (Kr. Euskirchen) im Erfttal entdeckte man im Jahre 1841 in einem römerzeitlichen Grab einen kleinen Altar (Höhe 30 cm – Breite 18 cm – Tiefe 9 cm) aus Kalkstein. Die stark abgeriebene Inschrift des Steins, die der Zeit zwischen 170 und 230 n. Chr. zugeordnet werden kann, fand Aufnahme in das CIL und wird einige Jahre später von LEHNER entsprechend den Angaben im CIL wie folgt gelesen ...
Im Jahr 1999 kamen bei Unterfangungsarbeiten vor der Fundamentmauer des Hauses Heidelbergerstrasse 6 in der südlichen Altstadt von Ladenburg vier aneinander passende Fragmente einer Inschriftentafel aus Marmor zum Vorschein. Ihre vorläufige Erstveröffentlichung erfolgte noch im gleichen Jahr durch Dr. Britta Rabold. Zur erhofften vertiefenden wissenschaftlichen Bearbeitung durch Géza Alföldy kam es leider nicht mehr. Inzwischen Gebietsreferentin für die Archäologische Denkmalpflege beim Landesamt in Karlsruhe trat B. Rabold schließlich im Frühjahr 2017 mit der Bitte an mich heran, die Ladenburger Marmortafel nochmals in Augenschein zu nehmen und eine Einschätzung abzugeben. Dem komme ich nach eingehender Autopsie hiermit gern nach. ...
Einleitung: Die konventionelle Galaktografie stellte jahrzehntelang das einzige bildgebende Verfahren zur Darstellung von Milchgängen in der Brust dar. Heute verfügen wir in der Diagnostik über ein multimodales Konzept aus hochauflösendem Ultraschall, der Magnetresonanz-(MR-)Mammografie und der Duktoskopie/Galaktoskopie mit Sensitivitäten und Spezifitäten bis zu 95%. Ziel unserer Untersuchung war es, erstmalig die Tomosynthesetechnik in der Galaktografie einzusetzen und die daraus generierten synthetischen digitalen 2-D-Vollfeld-Mammografien mit der etablierten Methode der duktusorientierten Sonografie zu vergleichen. Es sollen mit beiden Methoden invasive Mammakarzinome und deren Vorstufen wie duktale Carcinoma in situ (DCIS) sowie benigne Befunde erkannt werden. Material und Methoden: Wir führten bei 5 Patientinnen mit pathologischer Mamillensekretion sowohl eine duktusorientierte Sonografie, eine kontrastmittelunterstützte Galaktografie mithilfe der Tomosynthese in 3-D sowie auch den daraus generierten synthetischen digitalen 2-D-Vollfeld-Mammografien durch. Die Auswertung der unterschiedlichen Untersuchungsmodalitäten erfolgte durch 3 in der komplementären Mammadiagnostik erfahrene Untersucher (1, 5 und 15 Jahre) und wurde mit der endgültigen Histologie korreliert. Ergebnisse: Alle 3 Untersucher beurteilten unabhängig voneinander die Bilder des duktusorientierten Ultraschalls und der kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik in 3-D und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien. Die Ergebnisse wurden mit den histopathologischen Befunden der Operationspräparate korreliert, wobei sich bei den 5 Patientinnen 1 invasives Mammakarzinom, 2-mal ein duktales Carcinoma in situ (DCIS) und 2 benigne Befunde ergaben. Alle drei Untersucher lagen bei der Verdachtsdiagnose in der Standardbildgebung der duktusorientierten Sonografie seltener richtig als bei der erstmalig durchgeführten, kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien. Schlussfolgerung: Erstmalig wurde die Brusttomosynthese in der Galaktografie (Galaktomosynthese) eingesetzt und ermöglichte eine digitale, 3-dimensionale Darstellung von suspekten Befunden. Zusammen mit den daraus synthetisierten, digitalen 2-D-Vollfeld-Mammografien könnte dies in Zukunft eine sinnvolle Ergänzung der komplementären Mammadiagnostik sein – und eine Renaissance dieser Methode. Im Vergleich mit dem duktusorientierten Ultraschall in Hochauflösung erzielten die Untersucher mit der kontrastmittelunterstützten Galaktografie in Tomosynthesetechnik und den daraus generierten, synthetischen digitalen 2-D-Vollfeld-Mammografien bessere Ergebnisse in Korrelation mit den histopathologischen Befunden.
Gegenstand der vorliegenden Arbeit sind die Untersuchungen lichtgesteuerter Reaktionen der zwei Retinalproteine Channelrhodopsin-2 (ChR-2) und Proteorhodopsin (PR) mit Hilfe zeitaufgelöster Laserspektroskopie.
Da der Mechanismus der Kanalöffnung des ChR-2 bis heute nicht vollständig aufgeklärt werden konnte, beschäftigt sich diese Arbeit insbesondere mit den Prozessen, die direkt nach der Photoanregung des Retinals stattfinden und die Kanalöffnung vorbereiten. Es wurde dabei gezielt auf für die Funktion des Proteins wichtige Faktoren wie strukturelle Besonderheiten des Chromophors und seiner Umgebung eingegangen und deren Auswirkung auf die Dynamik der Photoreaktionen sowie die Veränderungen im Protein nach der Anregung untersucht.
Zunächst wurden die Ergebnisse der vis-pump-IR-probe-Experimente an ChR-2 im Bereich der Carbonylschwingungsbanden protonierter Glutamat- und Aspartat-Reste dargestellt. Dabei wurde insbesondere die Bildungsdynamik der Differenzbanden in diesem Spektralbereich untersucht und in Anlehnung an die vorhandene Literatur eine Bandenzuordnung der für die Funktion des Proteins wichtigen Aminosäurereste vorgenommen. Aus den Messergebnissen konnte geschlossen werden, dass die mit der Kanalöffnung einhergehenden Konformationsänderungen in ChR-2 durch eine effektive Aufnahme der Überschussenergie durch das Protein auf einer sub-Pikosekunden-Zeitskala vorbereitet werden.
Des Weiteren wurden spektroskopische Untersuchungen an der R120H-Mutante des ChR-2 vorgestellt. Da diese Mutante bei elektrophysiologischen Messungen keine Kanalaktivität zeigte, sollte zunächst geklärt werden, ob die Mutation einen Einfluss auf die Retinalisomerisierung und den nachfolgenden Photozyklus hat. Dabei stellte sich heraus, dass die Retinalisomerisierung bei der R120H-Mutante zwar im Vergleich zum Wildtyp etwas verzögert stattfindet, der Einfluss der Punktmutation auf den weiteren Photozyklus jedoch insgesamt gering ist. Mit Hilfe der Kurzzeit-IR-Spektroskopie im Bereich der Amid I-Schwingung des Proteinrückgrats konnten für die Mutante allerdings signifikante Veränderungen der Bildungsdynamik sowie eine deutliche Abnahme der Amplitude des Amid I-Signals detektiert werden. Anhand weiterer Experimente an den Mutanten E123T und D253N in diesem Spektralbereich konnte anschließend ein Zusammenhang zwischen der Intensität der Amid I-Bande und der Kanalaktivität von ChR-2 festgestellt werden. Diese Ergebnisse ließen somit die Schlussfolgerung zu, dass die Aminosäurereste R120 und D253 eine entscheidende Rolle beim schnellen Transfer der Überschussenergie an das Protein nach der Retinalanregung und der so initiierten Kanalöffnung spielen.
Zusätzlich wurde der Frage nachgegangen, inwieweit Veränderungen am Chromophor die Isomerisierungsreaktion, den nachfolgenden Photozyklus sowie die Funktion des ChR-2 als Ionenkanal beeinflussen können. Zu diesem Zweck wurden spektroskopische Untersuchungen an einem mit 9-12-Phenylretinal (PheRet) rekonstituierten ChR-2 vorgestellt. Es konnte gezeigt werden, dass die Isomerisierung des PheRet zu seiner 13-cis-Form in ChR-2 stark verlangsamt ist und verglichen mit dem nicht modifizierten Chromophor deutlich ineffizienter abläuft. Es wurde außerdem festgestellt, dass die Veränderungen am Retinal zu deutlichen Beeinträchtigungen des Photozyklus führen. Zum einen wurde ein sehr schneller Zerfall des ersten Photoprodukts sowie die Bildung eines zusätzlichen, blauverschobenen Px-Zustands detektiert. Außerdem wurde festgestellt, dass nach der Deprotonierung des isomerisierten PheRet der Großteil der modifizierten Retinale in den Ausgangszustand zurückkehrt und der P3-Zustand nur in geringen Mengen gebildet wird. Die Messergebnisse führten somit zu der Schlussfolgerung, dass die all-trans-Konformation des PheRet in ChR-2 deutlich bevorzugt wird. Da elektrophysiologische Untersuchungen des Retinal-Analogons jodach keine signifikanten Verminderungen der Photoströme im Vergleich zum ATR in ChR-2 zeigten, ließ sich schließlich festhalten, dass die vorgenommenen Veränderungen am Chromophor, die zu einer deutlichen Hemmung der Isomerisierungsreaktion führen und einen starken Einfluss auf den nachfolgenden Photozyklus haben, nicht ausreichend sind, um die Kanalaktivität von ChR-2 komplett zu blockieren, solange noch ein kleiner Anteil der Retinale isomerisieren kann.
Der abschließende Teil der Arbeit beschäftigt sich mit der Absorption des UV-Lichts durch das Retinal mit deprotonierter Schiff-Base im grünabsorbierenden Proteorhodopsin, welches in einem alkalischen Medium im Dunkelzustand akkumuliert werden kann. Die Untersuchungen der Primärreaktion zeigten einen langsamen biexponentiellen Zerfall des angeregten Zustands der UV-absorbierenden Spezies mit anschließender Bildung des 13-cis-Photoprodukts. Aufgrund dieser Ergebnisse konnte ein Reaktionsmodell für die ersten Prozesse nach der UV-Anregung des Retinals im GPR aufgestellt werden, welches möglicherweise für weitere UV-Rezeptoren genutzt werden kann.
Die Kephalometrie stellt einen bedeutenden Diagnostikbestandteil der kieferorthopädischen Diagnostik und Behandlungsplanung dar, mit deren Hilfe es möglich ist, skelettale Ursachen dentaler Befunde zu evaluieren. Üblicherweise erfolgt die kephalometrische Analyse anhand eines Fernröntgenseitenbildes, das jedoch neben der unausweichlichen Strahlenbelastung des Patienten, der sich zumeist im jugendlichen Alter und im Wachstum befindet und damit besonders vulnerabel bezüglich ionisierender Strahlung ist, auch geometrische Verzerrungen und Verzeichnungen aufweist, die eine kephalometrische Analyse erschweren. Zudem erfolgt beim FRS eine dreidimensionale Analyse, die auf einer zweidimensionalen Ansicht basiert und daher nicht die Exaktheit einer 1:1 Analyse besitzen kann. Die Kephalometrie mittels Magnetinduktion stellt eine strahlenfreie Alternative zur Verfügung. Im Rahmen der vorliegenden Studie ist untersucht worden, inwieweit Untersucher mit dem auf einer elektromagnetischen Induktion basierenden noXrayCeph®- Gerätes in der Lage sind, genaue Messdaten zu generieren und zu reproduzieren. Beim noXrayCeph®-Gerät handelt es sich um eine Weiterentwicklung des 3-Space®-Isotrak®- Gerätes der Firma POLHEMUS. Im Rahmen der hier durchgeführten Studie konnte die Messgenauigkeit der kephalometrischen Messung auf Basis der Magnetinduktion sowie die Reproduzierbarkeit durch verschiedene Untersucher statistisch belegt werden. Weiterhin sollten mit der Durchführung einer Anwenderschulung die Anwenderfreundlichkeit des Gerätes und das einfache Erlernen der Handhabung eruiert werden. Hierfür wurden insgesamt drei differente Versuchsreihen aufgebaut. Die Messgenauigkeit des noXrayCeph®-Gerätes wurde anhand eines normierten Abstands von exakt 100 mm nachgewiesen. Außerdem konnten fünf unterschiedliche Untersucher jeweils 15mal eine kephalometrische Analyse mit dem noXrayCeph®-Gerät reproduzierbar durchführen. Dabei waren die Messergebnisse sowohl Untersucher sowie zeitunabhängig. Diese kephalometrischen Untersuchungen erfolgten hierbei an einem Kunststoffschädel, auf den 55 Messpunkte als kephalometrische Variablen übertragen worden waren. In einer nachfolgenden Anwenderschulung konnten sechs männliche und vier weibliche Probanden nachweisen, dass auch ohne eine Anwenderschulung eine hohe Reproduzierbarkeit der ermittelten Werte erreicht werden konnte. Ebenfalls wurde der Einfluss des Geschlechts, des Winkels des angesetzten 103 Messstiftes, der Handhabung dieses Messstiftes sowie des physiologischen Tremors auf die Messgenauigkeit und die Reproduzierbarkeit der Daten geprüft. Es ließ sich wiederholt zeigen, dass mit dem noXrayCeph®-System genaue und reproduzierbare Werte einer kephalometrischen Analyse gewonnen werden, die bei den unterschiedlichen Untersuchern in einem Rahmen tolerierbarer Schwankungen vergleichbar sind. Auch intraindividuell weisen die ermittelten Daten eine hohe Reproduzierbarkeit auf. In dieser Studie sind Einflüsse des Geschlechts, der Handhabung des Messstiftes sowie des Winkels dieses Stiftes ebenso wenig nachweisbar wie ein positiver Einfluss einer Vorab-Schulung der Probanden. Der bei den Probanden vorhandene, unterschiedlich ausgeprägte physiologische Tremor und die unterschiedliche Haltung der Messspitze hatten keinerlei Auswirkung auf die Reproduzierbarkeit der Messergebnisse. Zusammenfassend lässt sich aus der durchgeführten Studie somit ableiten, dass das noXrayCeph®-Verfahren geeignet ist für eine exakte kephalometrische Analyse. Die Patienten sind keiner Strahlenexposition wie bei einer Röntgenaufnahme ausgesetzt. Die Anwenderschulung zeigte außerdem, dass das Verfahren und der Umgang mit dem noXrayCeph®-Gerät bei der Messung einfach erlernbar und gut durchführbar ist. Die aus dem Röntgenverfahren resultierenden Probleme wie Verzerrungen und Überlagerungsfehler sowie die Strahlenexposition gerade bei jungen Patienten können mit diesem Verfahren umgangen und eliminiert werden. Somit stellt die Kephalometrie mit dem noXrayCeph®-Gerät eine fundierte Alternative in der Kieferorthopädie dar.
Ich hatte im Wintersemester 1968 in Frankfurt mit dem Pharmaziestudium angefangen. Das pharmazeutische Institut lag ja damals in der Georg-Voigt-Straße, also nicht weit entfernt vom Zentrum der Studentenunruhen, dem Uni-Hauptgebäude mit der Aula. Daher haben wir einiges von den Protesten mitbekommen. ...
Über die Bedeutung des geistigen Erbes von 68 wird 50 Jahre später trefflich gestritten. Mögen die politischen Ideen des Aufbruchs und das daran anknüpfende Handeln heute für Kontroversen sorgen, so erfreut sich hingegen der Sound der Revolution, der damals zum Ärger orthodoxer Kommunisten ganz klar von der Rockmusik dominiert wurde, einer nahezu ungebrochenen Begeisterung: Das "»Weiße Album" der Beatles, "Electric Ladyland" von Jimi Hendrix oder "Beggars Banquet" von den Rolling Stones, alle 68 erschienen, werden heute mehr denn je bewundert. Im Zeichen einer grassierenden "Retromania" (Simon Reynolds) gewinnt der mit Mythen und Heldengeschichten aufgeladene Sound der Vergangenheit mit zunehmendem zeitlichen Abstand sogar noch an Bedeutung. In ihrer Frühphase ist die Popmusik noch ein Wettstreit verschiedener Stile, Techniken und auch Bands. Ihre steigende gesellschaftliche Akzeptanz lässt aber spätestens in den 70er Jahren Zweifel laut werden an ihrer weiterhin behaupteten und auch inszenierten Widerständigkeit.
Das Private ist politisch! – 68 war der Slogan eine auf Ganze gerichtete Perspektive der Kritik und ein Impuls für die Revolutionierung des Alltagslebens: Es ging bei den Diskussionen und Analysen um die "Weltherrschaft des Kapitals" und den Zusammenhang von Faschismus und Kapitalismus immer zugleich um die Manifestationen von Herrschaft und Unterdrückung in den Kapillaren des Alltäg lichen. In den Blick gerieten dabei nicht zuletzt die Autoritätsstrukturen der bürgerlichen Familie und damit die (im Sinne marxistischer Gesellschaftsanalyse) sogenannte "Nebenwidersprüche" des Privaten: das Verhältnis der Geschlechter, Fragen von Liebe und Sexualität, Kindererziehung, Eigentumsfragen und Besitzdenken. Der Slogan wurde darüber hinaus zum Leitspruch der Frauenbewegung, die vor Augen führt, wie politisch das Private gerade in Fragen von Nachwuchs und Alltagsorganisation ist. ...
In den zahlreichen Beiträgen zum "Jubeljahr der 1968er-Bewegung" kommen oft ehemalige Aktive, Historikerinnen und Experten zu Wort. Doch wie blicken eigentlich Aktivistinnen und Aktivisten des 21. Jahrhunderts auf diese Zeit zurück? Dieser Frage hat sich ein zweijähriges Forschungsprojekt am Institut für Politikwissenschaft der Goethe-Universität gewidmet.
Weg mit den Talaren! Hoch die Doktorhüte! : vom Wandel der Zeremonialität an deutschen Universitäten
(2018)
"Unter den Talaren – Muff von 1000 Jahren": Dieser Slogan steht wie kaum ein anderer für die Aufbruchstimmung der 68er-Generation. Damit zielten die Hamburger Studenten auf das Verschweigen der NS-Vergangenheit ab, anschließend ging es aber auch den Talaren selbst an den Kragen. Seit einigen Jahren wird im zeremoniellen Raum der Universitäten vielfach experimentiert: Die Fächer bilden eine jeweils eigene Feierkultur aus – auf der Suche nach einem Übergang von der Universität in das berufliche Leben.
Herr Wolff, in der Ausgabe von Forschung Frankfurt zum Jubiläumsjahr werden Sie mit dem Satz zitiert: "Die Offenheit der Debatten, die die 68er erkämpft haben, lässt sich nicht mehr zurücknehmen." Vor Kurzem wurde an der Goethe-Universität heftig über Meinungsfreiheit gestritten. Die Frage war: Darf man den Polizeigewerkschafter Rainer Wendt zur Diskussion an die Uni einladen. Hat Ihre Aussage nach wie vor Bestand? ...
Mit "Sit-in" und "Teach-in" zur Weltrevolution : Erinnerungen an den Sprachgebrauch der "68er"
(2018)
"Sit-in" und "Teach-in"? – Wer 1968 noch kein Zeitgenosse war, wird beides nur für zwei der im 20. Jahrhundert immer beliebter werdenden, aber oft unverstandenen Fremdwörter aus dem Englischen halten. Heute sind beide weitgehend vergessen, so brandaktuell sie auch einmal waren. Mit ihnen wurde nicht weniger gemeint als eine Sitzblockade vor Hörsälen und die Verhinderung einer regulären Lehrveranstaltung, indem man sie in ein Agitationsforum "umfunktionierte". Die traditionellen Vorlesungen wurden ohnehin als "säkularisierte Predigten" verhöhnt. Als ersten Frankfurter Hochschullehrer traf es ausgerechnet den Staatsrechtler Carlo Schmid, immerhin einen der Väter des Grundgesetzes, der seine Vorlesung abbrechen musste. ...
Kurz vor Mitternacht am 2. April 1968 bricht im Kaufhaus M. Schneider auf der Zeil ein Feuer aus. Kurz darauf ertönt der Feueralarm im Kaufhof an der Hauptwache. Menschen werden nicht verletzt, der Schaden beträgt nach heutigem Geldwert rund eine Million Euro. Unter den Tätern sind Andreas Baader und Gudrun Ensslin. Beide werden zu drei Jahren Zuchthaus verurteilt. Die Brandanschläge auf die Frankfurter Kaufhäuser sind die Geburtsstunde der Roten Armee Fraktion – das wissen wir heute. ...
Die Ausstellung "Freiraum der Kunst", die bis 8. Juli 2018 im Museum Giersch der GoetheUniversität zu sehen ist, zeichnet die Geschichte der "studiogalerie" nach. Dieses vom Allgemeinen Studentenausschuss (AStA) betriebene Forum präsentierte im Studentenhaus auf dem Campus Bockenheim von 1964 bis 1968 Ausstellungen und Veranstaltungen der nationalen und internationalen Avantgarde. Malerei und Objekte der Licht-Kunst und Kinetischen Kunst, der Konkreten Kunst, des Neuen Realismus, der Op-Art, der Hard-Edge- und Farbmalerei, aber auch FluxusKonzerte und Happenings sollten als studentischer Beitrag zur Demokratisierung von Kunst und Gesellschaft verstanden werden. Legendär wurde die Ausstellung "Serielle Formationen" von 1967. Im Zuge der Radikalisierung der Frankfurter Studentenschaft kamen die Aktivitäten jedoch 1968 zum Erliegen.
Unter dem Schlagwort "68er-Bewegung" werden verschiedene linksgerichtete Protestbewegungen, Bürgerrechtsdemonstrationen und antiautoritäre Aktionen zusammengefasst, die ab Mitte der 1960er in Deutschland und zahlreichen anderen Ländern stattfanden und auf eine Umwälzung bestehender sozialer und politischer Strukturen zielten. ...
Jedes Mal, wenn ich in Frankfurt bin, eine Stadt, in der ich von 1960 bis 1980 gelebt habe und wo ich Ostern 1968, direkt nach meiner Entlassung aus der Bundeswehr, sofort an den großen Osterdemonstrationen teilgenommen habe – die Antwort auf das Attentat auf Rudi Dutschke –, zieht es mich in das alte Universitätsviertel an der Bockenheimer Warte. ...