Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2877)
- Article (2279)
- Contribution to a Periodical (2161)
- Book (2023)
- Doctoral Thesis (1741)
- Review (927)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (180)
Language
- German (14009) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (44)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5053)
- Medizin (1509)
- Gesellschaftswissenschaften (1066)
- Rechtswissenschaft (742)
- Neuere Philologien (653)
- Wirtschaftswissenschaften (644)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.
Die Geschichte der europäischen Integration wird in der Regel als Erfolgsgeschichte erzählt, vor allem als wirtschaftliche Erfolgsgeschichte, die sich in Folge kluger und aus historischer Erfahrung getroffener Entscheidungen ergeben habe (vgl. Loth 2014; vgl. auch Mittag 2008). Der Zweite Weltkrieg habe endgültig gezeigt, dass das durch zahlreiche Nationalstaaten gekennzeichnete Europa, sollte es nicht zusammenarbeiten, zu verheerenden Konflikten neige. Und die Zusammenarbeit sei nicht nur politisch klug; sie zahle sich zusätzlich wirtschaftlich aus. So seien allen Teilnehmerstaaten auch in einem ganz ordinär materiellen Sinne Profiteure der europäischen Einigung, die in dieser Logik dann auch gar nicht weit genug gehen kann, bedingen sich hiernach doch das politisch Sinnvolle und das ökonomisch Erfolgreiche gegenseitig – und zwar genau in der Form der supranationalen Organisation, die die Europäische Union mittlerweile angenommen hat. Liest man einen Satz der Bundeskanzlerin Angela Merkel so, dann ist die europäische Integration nach Brüsseler Art deshalb alternativlos, weil es kein vergleichbares Erfolgsmodell gibt. Aus der zunächst durch das Leid des Krieges geprägten Bereitschaft zur Zusammenarbeit ist unter der Hand eine Art Sachzwang geworden, denn von der einmal eingeschlagenen Straße der Integration kann man in dieser Sicht nur unter erheblichen Wohlstandsverlusten und politischen Risiken abweichen.
In dieser Sachzwanglogik war allerdings die Euro-Krise nicht vorgesehen. Sie konnte im strengen Sinne auch gar nicht passieren, war doch die weitere Vertiefung der europäischen Union zur Währungsunion in den 1990er Jahren gerade damit begründet worden, dass derartige Krisen zukünftig ausgeschlossen seien (vgl. Tietmeyer 2005). Dass die Politik auf sie zunächst überrascht, fast panisch und dann durch konsequentes Vorantreiben der institutionellen und finanziellen Integration reagiert hat, zeigt auch, dass hier ein Denken vorherrscht, das nach dem Motto funktioniert, es könne doch nicht sein, was nicht sein dürfe. ...
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Die 8. Fachtagung für Hochschuldidaktik der Informatik (HDI) fand im September 2018 zusammen mit der Deutschen E-Learning Fachtagung Informatik (DeLFI) unter dem gemeinsamen Motto "Digitalisierungswahnsinn? – Wege der Bildungstransformationen" in Frankfurt statt.
Dabei widmet sich die HDI allen Fragen der informatischen Bildung im Hochschulbereich. Schwerpunkte bildeten in diesem Jahr u. a.:
– Analyse der Inhalte und anzustrebenden Kompetenzen in Informatikveranstaltungen
– Programmieren lernen & Einstieg in Softwareentwicklung
– Spezialthemen: Data Science, Theoretische Informatik und Wissenschaftliches Arbeiten
Die Fachtagung widmet sich ausgewählten Fragestellungen dieser Themenkomplexe, die durch Vorträge ausgewiesener Experten und durch eingereichte Beiträge intensiv behandelt werden.
Adorno und die Kabbala
(2015)
Im neunten Band der Reihe geht Ansgar Martins kabbalistischen Spuren in der Philosophie Theodor W. Adornos (1903–1969) nach. Der Frankfurter Gesellschaftskritiker griff im Rahmen seines radikalen materialistischen Projekts gleichwohl auch auf "theologische" Deutungsfiguren zurück. Vermittelt durch den gemeinsamen Freund Walter Benjamin (1892–1940) stieß Adorno dabei auf das Werk des Kabbala-Forschers Gershom Scholem (1897–1982). Zwischen Frankfurt und Jerusalem entwickelte sich eine lebenslange Korrespondenz.
Für Adorno erscheint vor dem Hintergrund lückenloser kapitalistischer Vergesellschaftung jede religiöse Sinngebung in der Moderne als unmöglich. Der Tradition der jüdischen Mystik schreibt er hingegen eine innere Affinität zu dieser hoffnungslosen Logik des "Verfalls" zu. Sie scheint ihm zur unumgänglichen Säkularisierung religiöser Gehalte aufzufordern. Adornos kabbalistische Marginalien beziehen einen breiten Horizont jüdisch-messianischer Ideen ein. Er verleugnet dabei nie, dass es ihm um eine sehr diesseite Verwirklichung geoffenbarter Heilsversprechen zu tun ist: Transzendenz sei als erfüllte Immanenz, als verwirklichte Utopie zu denken. In diesem Anliegen sieht Adorno selbst jedoch gerade seine Übereinstimmung mit der Kabbala.
Adornos kabbalistische Motive, die auf Scholems Forschungen zurückgehen, werden hier ausführlich an seinen Schriften und Vorlesungen untersucht. In seinem Verständnis der philosophischen Tradition sowie im Modell der Metaphysischen Erfahrung suchte er etwa explizit Anschluss an Deutungen der Kabbala: Das unerreichbare Urbild der Philosophie sei die Interpretation der geoffenbarten Schrift. Wie säkularisierte heilige Texte wurden Werke von Beethoven, Goethe, Kafka oder Schönberg so zum Anlass für "mystische" Interpretationen. Deren detaillierte Untersuchung erlaubt, das viel beschworene jüdische Erbe von Adornos Philosophie zu konkretisieren und bedenkenswerte Einzelheiten von der Negativen Dialektik zur Ästhetik in den Blick zu nehmen.
Der 2‘-Desoxyguanosin-Riboschalter gehört zur unter Bakterien weit verbreiteten Klasse der Purin-Riboschalter. Allerdings wurden 2‘-Desoxyguanosin-bindende Riboschalter bisher ausschließlich in M. florum gefunden, damit stellt diese RNA eine Ausnahme unter den ansonsten verbreiteten Purin-Riboschaltern dar. In der vorliegenden Arbeit wurde ein NMR-Strukturmodell des IA-Aptamer-2‘-Desoxyguanosinkomplexes erstellt und anhand der mittels NMRSpektroskopie zugänglichen strukturellen Informationen sowohl Struktur und Dynamik des freien RNA-Aptamers als auch des 2‘-Desoxyguanosinkomplexes charakterisiert. Dabei wurde insbesondere der Einfluss von Mg2+ auf Struktur und Dynamik der jeweiligen Zustände sowie auf den durch 2‘-Desoxyguanosin induzierten Faltungsprozess untersucht.
Mg2+-Ionen modulieren die Faltungstrajektorien von sensorischen RNA-Domänen. Die Übertragbarkeit von Mg2+-abhängigen Charakteristika der RNA-Faltung innerhalb verschiedener Messmethoden ist durch die schlechte Vergleichbarkeit der relativen Konzentrationsverhältnisse eingeschränkt. Die NMR-spektroskopisch beobachtbaren Mg2+-Einflüsse sollten also unter besonderer Berücksichtigung der für NMR benötigten vergleichsweise sehr hohen RNAKonzentrationen mit Ergebnissen aus kalorimetrischen oder fluoreszenzspektroskopischen Messungen interpretiert werden. Die in der NMR-Spektroskopie üblichen hohen Probenkonzentrationen befinden sich in dem Regime, in dem auch der physikalische Effekt des verdrängten Volumens eine Rolle zu spielen beginnt. Demnach ist es für die RNA-Moleküle im NMR-Probenröhrchen bei Konzentrationen von 5-10 mg/ml auch ohne Zugabe von Mg2+ entropisch günstiger, kompakte Konformationen einzunehmen. Die Relevanz des Effekts des verdrängten Volumens für die RNA-Faltung unter NMR-Bedingungen und unter zellulären Bedingungen ist Gegenstand der aktuellen Forschung und wird in dieser Arbeit am Beispiel des IA-Aptamers diskutiert.
Der oft einzigartige Bindungsmodus ubiquitärer Metaboliten durch bakterielle Riboschalter (Montange and Batey, 2006) ermöglicht prinzipiell den Einsatz von RNA-Aptameren in vivo, ohne mit zellulären Proteinsystemen zu interferieren (Mulhbacher et al., 2010). Therapeutische Ziele sind beispielsweise die Anwendung von Riboschaltern gegen bakterielle Pathogene beziehungsweise gegen pathogene Bakterien selbst. Eine weitere Rolle wird RiboschalterElementen zukünftig als Bausteine in der synthetischen Biologie zukommen (Dixon et al., 2010; Knight, 2003; Topp and Gallivan, 2008). Hierfür ist es von grundlegender Bedeutung, Charakterisierung von Struktur als Basis für das Verständnis von Funktion unter zellulären Bedingungen zu etablieren. Im Rahmen einer Zusammenarbeit mit Robert Hänsel aus dem Arbeitskreis von Prof. Dr. Volker Doetsch wurde am Beispiel des IA-Aptamers und einer nichtnatürlichen Sequenzvariante gezeigt, dass eine strukturelle Charakterisierung von Riboschaltern mittels in cell NMR-Spektroskopie möglich ist. In Zusammenarbeit mit Karl von Laer aus der Arbeitsgruppe von Prof. Dr. Beatrix Suess wurden beide RNA-Aptamer hinsichtlich ihrer Funktion in einem biologischen Assay getestet. Die Ergebnisse dieser Experimente zeigten eine deutliche Korrelation von Struktur und Funktion in vivo, während Diskrepanzen zwischen Struktur in vitro und Funktion in vivo demonstriert werden.
Weiterhin wurde im Rahmen dieser Arbeit gezeigt, dass eine gewisse strukturelle Flexibilität der Bindungstaschen regulatorischer RNA-Motive für Selektion und Adaption während Evolution nötig ist. Beispielsweise wurde für den Guanin-Riboschalter gezeigt, dass der nicht-native Ligand 2‘-Desoxyguanosin zur Komplexbildung des Aptamers führt. Demnach könnte die Bindung von 2‘-Desoxyguanosin im Guanin-Riboschalter bereits evolutionär angelegt sein und die Entstehung des IA-Aptamers nach Genomreduktion der Mesoplasmen begünstigt haben. Das IA-Aptamer dagegen bindet Guanin nicht, stattdessen besitzt M. florum auf Guanin spezialisierte Sequenzvarianten dieses Riboschalters (Kim et al., 2007). Strukturell hochauflösende Einblicke in unterschiedliche Zustände der Bindungstasche im G-Aptamer-Thioguaninkomplex, die durch die Lösung der Kristallstruktur des GLoop-Aptamers ermöglicht wurden, unterstützen die Hypothese einer anpassungsfähigen Bindungstasche im G-Aptamer. Für B. subtilis wäre es interessant, die physiologische Bedeutung der Komplexbildung des G-Aptamers mit 2‘-Desoxyguanosin zu untersuchen.
So vielfältig das Studienangebot, so vielfältig sind auch die Studierenden der Goethe-Universität: Ob Bildungsbiographie oder soziale Herkunft, kultureller Hintergrund oder Lebensumstände—die Frankfurter Studierenden sind ein Spiegel der für Stadt und Region charakteristischen Diversität. Das bietet große Chancen für wechselseitiges Lernen, stellt die Universität aber auch vor Herausforderungen. Eine der größten dieser Herausforderungen ist, bei der Weiterentwicklung von Studium und Lehre die Bedürfnisse einer in sich heterogenen Studierendenschaft konstruktiv aufzugreifen. Neben einer regelmäßigen Rückmeldung der Studierenden (etwa im Rahmen der Lehrveranstaltungs- oder Studiengangsevaluation) und studentischem Engagement in universitären Gremien bedarf es hierfür einer fundierten Datenbasis. ...
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Helmut Siekmann erläutert in seinem Beitrag die Einstandspflicht der Bundesrepublik Deutschland für die Deutsche Bundesbank und die Europäische Zentralbank. Dabei kommt er zu dem Schluss, dass weder eine „Haftung der Bundesrepublik Deutschland für Verluste der EZB noch eine Verpflichtung zur Auffüllung von aufgezehrtem Eigenkapital“ besteht.
Dieser Beitrag ist zuerst erschienen in: Festschrift für Theodor Baums zum siebzigsten Geburtstag, S. 1145-1179, Helmut Siekmann, Andreas Cahn, Tim Florstedt, Katja Langenbucher, Julia Redenius-Hövermann, Tobias Tröger, Ulrich Segna, Hrsg., Tübingen, Mohr Siebeck 2017
Über Scheinriesen: Was TARGET-Salden tatsächlich bedeuten : eine finanzökonomische Überprüfung
(2018)
Der TARGET-Saldo der Bundesbank beläuft sich gegenwärtig auf knapp 1 Billion Euro. Kritikern zufolge birgt dieser Umstand hohe Lasten und Risiken für den deutschen Steuerzahler und zeigt, dass Deutschland zu einem „Selbstbedienungsladen“ im Eurosystem geworden sei. Vor diesem Hintergrund erörtert das Papier im Detail, wie TARGET-Salden überhaupt entstehen und was sie finanzökonomisch bedeuten. Die wirtschaftspolitische Analyse kommt zu dem Schluss, dass - anders als von den Kritikern behauptet- unter den Bedingungen einer Währungsunion im Normalbetrieb - TARGET-Salden lediglich Verrechnungssalden ohne weitere Implikationen sind, die aber nützliche Informationen über ökonomisch tieferliegende, regionale Verschiebungen geben können. Unter dem Extremszenario eines Zerfalls der Währungsunion können TARGET-Salden zwar als offene Positionen interpretiert werden, deren spätere Erfüllung würde aber ähnlich dem Brexit von komplizierten politischen Verhandlungen abhängen, sodass über die Werthaltigkeit allenfalls spekuliert werden kann. Sollte man das Extremszenario für bedeutend halten, und politisches Handeln fordern, erscheinen zwei Lösungen sinnvoll. Beide Vorschläge führen zu einer institutionellen Stärkung der Eurozone: i) die Einführung einer Tilgungspraxis, wie sie im US-amerikanischen Fedwire-System angewandt wird. Dabei handelt es sich um eine rein fiktive Tilgung in Form einer Umbuchung auf einem gemeinsamen (Offenmarkt-)Konto bei der EZB; ii) die Bündelung aller monetären Aktivitäten bei der EZB, sodass eine regionale Abgrenzung von Zahlungsvorgängen entfällt (und damit die TARGET-Salden verschwinden), weil alle Banken in direkter Beziehung zu ein und derselben Zentralbank stehen und der Zahlungsverkehr direkt zwischen den beteiligten Banken stattfindet.
Aufbauend auf der ersten universitätsweiten Studierendenbefragung von 2012/13 wurde im Wintersemester 2016/17 im Rahmen einer fächer- und statusgruppenübergreifenden Arbeitsgruppe unter der Leitung der zu diesem Zeitpunkt amtierenden Vizepräsidentin für Studium und Lehre auf Grundlage der ersten Studierendenbefragung der Basisfragebogen für eine zweite universitätsweite Studierendenbefragung weiterentwickelt. Es flossen dabei außerdem Ergebnisse von aktuellen bundesweiten sowie an anderen Hochschulen erfolgten Studierendenbefragungen in den Arbeitsprozess. ...
An der Goethe-Universität wurden im Wintersemester 2017/18 alle Studierenden grundständiger Studiengänge und Masterstudiengänge für die zweite universitätsweite Studierendenbefragung eingeladen (n=45.343) und gebeten Fragen zu ihrer Lebenswirklichkeit und Studiensituation, ihrem soziodemographischen oder bildungsbiographischen Hintergrund zu beantworten sowie Studienbedingungen und Lehrqualität einzuschätzen.
Das Ziel des vorliegenden Gesamtberichts ist die Dokumentation der universitätsweiten Befragungsergebnisse. Insgesamt konnten Antworten von 10.797 Studierende (Rücklauf 24%) in die Auswertungen aufgenommen werden. ...
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Zielsetzung: Beteiligung von Medizinstudierenden im Rahmen der konzeptionellen Entwicklung eines zielgruppenspezifischen und attraktiven allgemeinmedizinischen Lehrangebots im ländlichen Raum.
Methodik: Es wurde ein Fragebogen entwickelt, der die Bewertung der Studierenden hinsichtlich des aktuellen Ablaufs ihres Studiums, den späteren Berufswunsch sowie die Anforderungen an ein zu entwickelndes allgemeinmedizinisches Schwerpunktprogramm im ländlichen Raum erfasst. Mittels einer Online-Befragung wurden im Sommer 2015 alle Medizinstudierende ab dem vierten vorklinischen Semester (n=2.150) der Goethe-Universität Frankfurt einmalig befragt. Die statistische Auswertung erfolgte primär deskriptiv. Die persönliche Einstellung hinsichtlich der Bereitschaft, als Hausarzt tätig zu werden, wurde auf statistische Signifikanz überprüft. Zudem wurde erhoben, ob ein messbarer Zusammenhang zwischen der eigenen Herkunft und dem späteren Wunscharbeitsort besteht.
Ergebnisse: Von insgesamt 2.150 kontaktierten Studierenden nahmen 617 an der Befragung teil (Rücklaufquote=28,7%). Die Ergebnisse repräsentieren eine große Bandbreite an Ideen und Anregungen, die sowohl die Meinung von Befürwortern als auch eher kritisch gegenüber der Lehre in der Allgemeinmedizin eingestellten Medizinstudierenden widerspiegeln. Von dem geplanten Schwerpunktprogramm erwarten die Studierenden einen starken Praxisbezug ebenso wie das Kennenlernen administrativer sowie wirtschaftlicher Hintergründe zum Führen einer Praxis.
Schlussfolgerungen: Durch die Einbeziehung der Zielgruppe am Entwicklungsprozess bestand die Möglichkeit, das zu entwickelnde Schwerpunktprogramm auf die späteren Teilnehmer passgenauer zuzuschneiden. Zudem ist zu erwarten, dass die Beteiligung der Studierenden zu einer höheren Akzeptanz des Programms führt. Die gewonnenen Ergebnisse zur Gestaltung eines Lehrangebots können als Orientierung für die mögliche Entwicklung ähnlicher Schwerpunktprogramme an anderen medizinischen Fakultäten dienen.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
kurz und kn@pp news : Nr. 43
(2018)
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den zweiten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Im ersten Projektbericht (ebenfalls in dieser Arbeitspapierreihe erschienen – Nr. 15) wurden die Entwicklungen der letzten Jahre in den infrastrukturellen Themenfeldern Fahrradmitnahme, Fahrradverleihsysteme und Fahrradabstellanlagen aufgearbeitet und Fragen zu Kommunikation und Marketing der Angebote sowie zu Möglichkeiten der fortschreitenden Digitalisierung zur verbesserten Integration von Fahrrad und Öffentlichem Verkehr diskutiert. Darauf aufbauend werden im vorliegenden Bericht die Ergebnisse vertiefender Fallstudien dargestellt, mit dem Ziel, Erfolgsfaktoren und Hemmnisse für die Integration von Fahrrad mit Öffentlichem Verkehr aufzuzeigen und in einem späteren Schritt daraus Handlungsempfehlungen zur Stärkung dieser Integration für Kommunen und Verkehrsanbieter geben zu können. Für die Fallstudien wurden solche Beispiele ausgewählt, die einen Vorbildcharakter haben und als nachahmenswert für andere Städte und Regionen gelten können bzw. aus denen sich Erkenntnisse für die Stärkung der Integration von Fahrradverkehr mit dem ÖV ziehen lassen. Zudem sollten die verschiedenen infrastrukturellen Themenfelder abgedeckt sein. Neben einer Darstellung der jeweils fallspezifischen Besonderheiten wird zu jedem Fallbeispiel das Betreiber- und Geschäftsmodell dargestellt und es erfolgt eine Bewertung, die sowohl die Sicht der Betreiber als auch die der Nutzenden beachtet.
Folgende Fallbeispiele werden behandelt:
Die hessischen Verkehrsverbünde Rhein-Main-Verkehrsverbund (RMV) und Nordhessischer Verkehrsverbund (NVV) bieten eine kosten- und sperrzeitfreie Mitnahmeregelung für Fahrräder an.
Das MVGmeinRad Mainz ist als Fahrradverleihsystem ein Teil des kommunalen ÖPNV-Unternehmens.
Zu den Fahrradabstellanlagen an Bahnhöfen wurden in der Fallstudie drei unterschiedlich große Anlagen einbezogen: Dein Radschloss des Verkehrsverbundes Rhein-Ruhr (VRR) für kleine, das Radhaus Offenburg für mittelgroße und die Radstation Düsseldorf für große Standorte.
München wurde schließlich für eine kommunale Strategie zur verbesserten Verknüpfung von Fahrrad und Öffentlichem Verkehr ausgewählt, da dort eine Vielzahl von Maßnahmen zur Stärkung der Fahrradmobilität sichtbar sind.
Das Internet ist ein gigantisches Netzwerk von Maschinen. Während sich dessen konkrete Nutzung permanent weiterentwickelt, bleibt dessen Funktion im Kern doch immer der Austausch von Informationen. Die vielfältigen Institutionen der Internet Governance lassen sich als Versuch verstehen, diesen Austausch zu ermöglichen. Eine zentrale Rolle kommt dabei der Internet Corporation for Assigned Names and Numbers (ICANN) zu. Sie verwaltet das globale Adressbuch des Internets und legt so fest, wie weit das Netz des Internets reicht. Die technische Notwendigkeit einer solchen zentralen Instanz wird im Prinzip kaum bestritten. Zunehmend jedoch verschärfen sich die Konflikte darüber, wie weit deren Kompetenzen reichen und wer sie kontrollieren sollte. Letztlich, so möchte ich zeigen, geht es um die Frage, wieviel internationale Autorität in diesem Bereich der Internet Governance notwendig und legitim ist.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Innerhalb der Gentrifizierungsforschung analysiert die Rent‑Gap‑Theorie, wie kleinräumige Differenzen zwischen gegenwärtigen Verwertungsbedingungen einerseits sowie Erwartungen auf zukünftig steigende Mieten andererseits Verdrängungsprozesse antreiben. Dementgegen hat Eric Clark (2014) jüngst eingefordert, dass die Stadtforschung den Blick verstärkt darauf richten müsse, wie Verdrängung verhindert werden kann. Diesen Appell aufgreifend, zeigen wir bezogen auf den deutschen Kontext, inwiefern mietrechtliche Regularien, stadtplanerische Entscheidungen und die jeweilige Eigentümerstruktur wesentlich darüber entscheiden, ob sich ein immobilienwirtschaftlicher Verwertungsdruck auch tatsächlich in Verdrängungsprozesse übersetzt. Illustriert wird dies am Wandel der Eigentümerstruktur im Frankfurter Gallus seit den 1970er Jahren. Deutlich wird dabei, dass Gentrifizierung kein Naturgesetz darstellt, sondern ein zutiefst politischer Prozess ist, der sich effektiv verhindern lässt.
Diese Untersuchung basiert auf eine jahrelange Erfahrung des Verfassers in der Arbeit mit Kindern und Jugendlichen aus Armutsverhaltnissen innerhalb von Nichtregierungs-organisationen in Pernambuco/Brasilien. Als Grundlagen wird zunächst die Lebenserfahrung von verarmten Kindern und Jugendlichen im sozialen Alltag diskutiert. Dabei wird unser Blick auf deren Handeln als soziale Subjekte und Protagonisten gerichtet. Als weiteres wird die Entwicklung von Prinzipien einer Bildung durch Arbeit als sozialerzieherisch Konzept auf einem befreiungspadaegogischen Hintergrund (Educação Popular) dargestellt. Dazu werden einige Aspekt zu dem ganzheitlichen Verstandinis von Bildung als Gemeinschaftserfarung erortet. Die anschließende Auseinander setzung mit den Autoren Karl Marx, Antônio Gramisci, anton Seminióvith Makarenko, Celestin Freinet und Paulo Freire versteht sich als Beitrag zur Diskussion der Konzepts Bildung durch Arbeit in Einigen leitenden Prinzipien. Die in der nun folgende Fallstudie verwandten Daten wurden anhand einer Aktionsforchung (Pesquisa-ação) erhoben. Nach der Beschreibung der Hauptmerkmale und Konzepte der sozialerzieherischen Arbeit von fünf Bildungsprojekten in Pernambuco, werden die Lern und Arbeitswerkstatten in Hinsicht auf die Wissensproduktion und den Kompetenzerwerb analysiert. Dabei werden die humanitäre, gemeinschaftsbildende, Bildungsbezogene, kulturelle und entwicklungszogene Dimensionen dieses Wissens hervorgehoben.Im folgenden werden Fragen für den schulischen Bereich aufgeworfen. Abschließend werden Perspektiven und Vorschage zum weiteren Denken und Handeln über das Forchungsthema aufgezeigt.
Sissi im Film
(2018)
Die Straßen deutscher Städte werden überwiegend vom Automobil dominiert, was nicht nur die gebaute Umwelt prägt, sondern auch die politischen Entscheidungen beeinflusst, wenn es um die Verteilung des Straßenraumes geht. Dass jedoch am Anfang der Mobilität das Zufußgehen steht und ein gut geplanter städtischer Fußverkehr nicht nur einen Beitrag zur Sicherheit der Fußgänger*innen leistet, sondern auch die Zukunft urbaner Mobilität gewährleistet, wird oft vergessen. Obwohl der Fußverkehr zahlreiche Potentiale bietet, bekommt er im öffentlichen Raum deutlich weniger Entfaltungsspielraum zur Verfügung gestellt. Die Zufußgehenden werden dort häufig kanalisiert und an den Rand gedrängt, was Einfluss auf ihr Verhalten nimmt. Diese Marginalisierung der Fußgänger*innen wird zusätzlich hervorgerufen durch eine geringe Beachtung jener in der städtischen Planung und Politik sowie in der Wissenschaft und Gesellschaft. Demnach stehen sie im Konfliktverhältnis zur persistenten und sozial konstruierten Struktur der Straße.
Die vorliegende Untersuchung überprüft, warum die Fortbewegung zu Fuß in der gebauten Straßenumwelt und ihrer Raumaufteilung im Vergleich zu anderen Verkehrsmitteln eine untergeordnete Rolle spielt und welchen Einfluss der planerische und politische Umgang und die Gestaltung des Straßenraumes darauf nimmt. Dies geschieht mittels eines Fallbeispiels in Frankfurt am Main, der Schweizer Straße. Im Rahmen der Studie werden Ergebnisse aus teilnehmenden Beobachtungen der Zufußgehenden der Schweizer Straße und deren Verhaltensweisen im öffentlichen Straßenraum sowie aus qualitativen Interviews mit Expert*innen der gebauten Straßenumwelt Frankfurts zusammengetragen. Das übergeordnete Ziel der Arbeit ist, ein Verständnis für die Wechselwirkung zwischen Raumstruktur, planerischem Einfluss und Mobilität zu entwickeln sowie die Konflikte der Raumaufteilung für die Fußgänger*innen herauszuarbeiten, um den Fußverkehr gezielter fördern zu können.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Diabetes-assoziierte Fußulzerationen (diabetic foot ulcerations, DFU) repräsentieren eine schwerwiegende klinische Komplikation der Wundheilung. Bislang sind pharmakologische Behandlungsansätze diabetischer Wundheilungsstörung unzureichend und limitiert. Der Erkenntnismangel der zugrundeliegenden zellulären und molekularen Mechanismen gestörter Wundheilung ergänzt die unzufrieden stellende klinische Situation. In den vergangenen Jahren sind vermehrt zelluläre Wundverbände in den klinischen Fokus gerückt. Sie ermöglichen eine individuelle, dynamische Wundbehandlung und haben in den ersten klinischen Studien vielversprechende Ergebnisse gezeigt.
In der vorliegenden Arbeit ist ein zellulärer Wundverband der Firma Boehringer Ingelheim genutzt worden, um die Wundheilung in diabetischen db/db-Tieren zu analysieren. Der Wundverband (BAWD; biological active wound dressing) besteht aus humanen Keratinozyten, die auf einer Hyaluronsäure-haltigen Matrix kultiviert werden.
Nach topischer Anwendung der lebenden Wundauflage war eine Interaktion humaner Keratinozyten mit murinem Wundgewebe zu beobachten. Die gestörte diabetische Wundheilung in der db/db-Maus war nach BAWD-Behandlung in einem um 30 % verbesserten Wundverschluss und dem Aufbau qualitativ neuen Gewebes deutlich verbessert.
Aufgrund der unverändert hohen Expression von Zyto- und Chemokinen in der frühen und späten Heilungsphase wurde eine Dämpfung der Immunantwort ausgeschlossen. Vielmehr war eine BAWD-vermittelte differenzielle Immunzellverteilung festzuhalten. Zudem zeigten Whole-Genom-Sequenzanalysen eine BAWD-induzierte Expression von Genen auf, die regenerative M2-ähnliche M[Phi] charakterisieren.
Außerdem scheint die BAWD-Anwendung nach Auswertung immunhistochemischer Daten und über die signifikant erhöhte CD29-, CD44- und Sca1-mRNA-Expression die Rekrutierung heilungsfördernder MSCs zu begünstigen, denen ein potentiell anti-entzündlicher Charakter zugesprochen wird.
In dieser Arbeit konnte zudem ein neuer Regelkreis kutaner Wundheilung beschrieben werden, der auf Basis der Expression muskelspezifischer Faktoren und der transienten Ausbildung kontraktiler Elemente in der Wunde normal heilender Tiere beruht, die bislang nicht beschrieben wurden. Interessanterweise induzierte eine BAWD-Anwendung die Expression muskelspezifischer Gene und Proteine in der Wundheilung diabetischer Tiere. Möglicherweise stellt die Ausbildung kontraktiler Elemente neben der Differenzierung von Fibroblasten zu Myofibroblasten eine ergänzende Komponente für einen beschleunigten Wundverschluss dar. Diese Befunde eröffnen neue Möglichkeiten zu Verständnis und Therapie diabetischer gestörter Wundheilung im humanen Organismus.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Mehr als 6.600 Doktorandinnen und Doktoranden forschen an der Goethe-Universität Frankfurt am Main. Das und vieles mehr ergab die erste repräsentative Umfrage unter Promovierenden und ihren Betreuern, die im Auftrag der Universität durch das Berliner Institut für Forschungsinformation und Qualitätssicherung (iFQ) durchgeführt wurde. Das gute Ergebnis ist nicht zuletzt auf GRADE, die Goethe Graduate Academy, zurückzuführen, dem universitätsübergreifenden Zentrum für die Doktorandenausbildung. ...
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Der Name Histamin hat seinen Ursprung aus dem griechischen Wort "histos" (Gewebe) und spielt auf sein breites Spektrum an Aktivitäten, sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen an. Histamin ist eines der Moleküle mit welchem man sich im letzten Jahrhundert am intensivsten beschäftigt hat.
Im Jahr 1907 wurde das Histamin erstmals synthetisiert. Drei Jahre später gelang es, dieses Monoamin erstmals aus dem Mutterkornpilz Claviceps purpurea zu isolieren. Weitere 17 Jahre vergingen, ehe Best et al. Histamin aus der humanen Leber und der humanen Lunge isolieren konnten. Best konnte somit beweisen, dass dieses biogene Amin einen natürlichen Bestandteil des menschlichen Körpers darstellt. Nach der Entdeckung wurden dem Histamin mehrere Effekte zugeschrieben. Dale et al. beobachteten, dass Histamin einen stimulierenden Effekt auf die glatte Muskulatur des Darms und des Respirationstraktes hat, stimulierend auf die Herzkontraktion wirkt, Vasodepression und ein schockähnliches Syndrom verursacht.
Popielski demonstrierte, dass Histamin dosisabhängig einen stimulierenden Effekt auf die Magensäuresekretion von Hunden hat. Lewis wiederum beschrieb erstmals, dass Histamin einen Effekt auf der Haut hervorruft. Dies zeigte sich durch verschiedene Merkmale, wie geröteter Bereich aufgrund der Vasodilatation und Quaddeln aufgrund der erhöhten Gefäßpermeabilität. Des Weiteren wurde Histamin eine mediatorische Eigenschaft bei anaphylaktischen und allergischen Reaktionen zugeschrieben. Zusätzlich spielt das biogene Amin eine entscheidende Rolle im zentralen Nervensystem (ZNS), unter anderem beim Lernen, bei der Erinnerung, beim Appetit und beim Schlaf-Wach-Rhythmus. Von den zahlreichen physiologischen Effekten des Histamins ist seine Rolle bei Entzündungsprozessen, der Magensäuresekretion und als Neurotransmitter am besten verstanden.