Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Massenspektrometrie-basierte Proteomuntersuchungen erfolgen auch heute überwiegend nach dem sogenannten Bottom-Up-Ansatz, d.h. die Identifizierung von Proteinen erfolgt auf der Basis von Peptiden, die chromatographisch gut voneinander getrennt werden können und massenspektrometrisch leichter zu analysieren sind als Proteine. Nach Identifikation der Peptide kann rekonstruiert werden, welche Proteine ursprünglich in der Probe vorgelegen haben. Zentraler Arbeitsschritt der Probenvorbereitung ist daher die Zerlegung des Proteins, die entweder chemisch oder - wie in den meisten Fällen – enzymatisch erfolgt. Trypsin ist das mit Abstand am häufigsten genutzte Enzym, da es eine hohe Schnittspezifität aufweist und sehr effizient ist. Der Trypsin-Verdau ist darüber hinaus sehr robust, d.h. er zeigt eine hohe Toleranz gegenüber Verunreinigungen, und zudem werden Peptide erzeugt, die sowohl gute Ionisations- als auch gute Fragmentierungseigenschafen aufweisen. Die durch Trypsin gebildeten Peptide enthalten neben dem basischen N-Terminus eine weitere basische Aminosäure am C-Terminus, so dass sie leicht zumindest doppelt-geladene Ionen bilden können und sehr häufig aussagekräftige C-terminale Fragmentioneserien liefern.
Neben den zahlreichen Vorteilen gibt es allerdings auch Nachteile. So können nach einem tryptischen Verdau in Abhängigkeit von der Verteilung der Schnittstellen Peptide entstehen, die entweder zu klein sind, um eine verlässliche Zuordnung zu einem Protein zu erlauben oder die zu groß sind für den Massenbereich des gewählten Massenanalysators. Eine vielversprechende Alternative zu Trypsin wäre ArgC, welches C-Terminal zu Argininen schneidet und somit im Durchschnitt größere Peptide mit Ionisations- und Fragmentierungseigenschaften ähnlich zu tryptischen Peptiden erzeugt. Das Enzym ArgC weist jedoch nur eine geringe Schnittspezifität auf und sein Trypsin-ähnliches Verhalten – also das Schneiden auch hinter Lysin - wurde öfters beobachtet und wird auch vom Hersteller angegeben. Ziel dieser Arbeit war die Entwicklung einer Verdaumethode, die Peptide erzeugt, die ausschließlich auf Argininen enden.
Das Resultat der zu entwickelnden Verdaumethode sollte somit dem eines idealen enzymatichen ArgC-Verdaues entsprechen. Realisiert wurde der ArgC-ähnliche-Verdau durch den Einsatz von Trypsin, dessen enzymatischer Schnitt durch die chemische Derivatizierung der Substrat-Lysine auf Arginine reduziert wurde. Neben dem weiteren Einsatz von Trypsin sollte dieser "Quasi-Arg-C-Verdau" weitere systematische Vorteile für Proteomanalysen realisieren: Zum Ersten sollte die Anzahl von Fehlschnitt-Peptiden, die sich bei Trypsin insbesondere an Lysinen mit saurer chemischer Umgebung ergeben, reduziert werden, zum Zweiten sollten die Arg-C-Peptide sowohl durch ihre gewachsende Größe, als auch durch das mit dem C-terminalen Arginin verbesserte Fragmentierungsverhalten höhere Score-Werte bei der bioninformatischen Auswertung der MS-Daten ergeben.
Im ersten Teil wurden zunächst bioinformatische Werkzeuge entwickelt, die MALDI-MS-Dateien automatisiert prozessierten. Die entwickelten Programme umfassen die Identifizierung und relative Quantifizierung von Proteinen aus diesen Dateien. Des Weiteren wurde ein Programm zur Analyse von MALDI-ISD-Dateien entwickelt. Automatisierte Auswertungen gelangen durch die Erstellung von Workflows in der Datenanalyseplattform KNIME. Diese Workflows kombinieren in Python geschriebene Skripte und Funktionalitäten frei verfügbarer Programme wie "MSConvert" und "mMass".
Nach Erstellung der bioinformatischen Werkzeuge wurde die Methodenentwicklung zur Modifizierung der Lysine für verschiedene Reagenzien durchgeführt. Die Auswahl fiel auf vier Substanzen, von denen bekannt ist, dass sie unter milden Reaktionsbedingung im quantitativen Ausmaß mit Aminogruppen reagieren. Diese waren Sulfo-NHS-Acetat, Propionsäureanhydrid, Diethylpyrocarbonat und die reduktive Methylierung mit Formaldehyd und Picolin-Boran. Die Reaktionsbedingungen mussten zunächst für Proteine optimiert werden, da die publizierten Protokolle hauptsächlich zur Derivatizierung von Peptiden verwendet worden waren. Anschließend wurden die optimierten Protokolle für eine Protein- und Proteomprobe eingesetzt und die Resultate miteinander verglichen. Die Untersuchungen führten zu dem Ergebnis, dass sowohl auf Protein- als auch auf Proteomebene die Propionylierung des Lysins die besten Resultaten zeigte. Insbesondere ist hervorzuheben, dass alle ArgC-ähnlichen Ansätze unabhängig vom eingesetzten Reagenz zu besseren Ergebnissen in jeder der Untersuchungen führte als der klassische enzymatische ArgC-Verdau.
...
Quantenchemische Untersuchungen zu Reaktionsmechanismen reaktiver Carben- und Silylenverbindungen
(2018)
In dieser Arbeit werden Reaktionsmechanismen verschiedener Carben- und Silylenverbindungen mit quantenchemischen Methoden untersucht: Die Zerfallsreaktion acylischer Diaminocarbene, die Reaktion verschiedener Diaminocarbene mit CO, die C-C Kupplung von Benzophenon mit SiCl2, die Reaktion von NHC mit Si2Br6 und die Reaktion von Dimethyltitanocen mit neo-Si5H12
Evaluationssatzung für Lehre und Studium der Johann Wolfgang Goethe-Universität Frankfurt a. M.
(2018)
All linguistics should be media linguistics, but it is not. This thesis is presented by using linguistic landscapes as an example. LL research does not belong to the traditional core of either mainstream linguistics or media linguistics. This is why not everything within power has been done yet to make full use of their thematic, conceptual and methodological possibilities. Visible signs in public space, however, are an everyday phenomenon. You have to pull out all the stops to research them extensively. The distinction between linguistics and media linguistics turns out to be counterproductive. But this does not only apply to the case of linguistic landscapes. It also stands for any comprehensive investigation of language and language use. (Exceptions may be very narrow questions for specific purposes.) The above thoughts are supported by a database of the project „Metropolenzeichen“ with more than 25.000 systematically collected, geocoded and tagged photographs.
Das Journal für Medienlinguistik (jfml) ist eine medienlinguistische Open-Access-Zeitschrift. Im Sinne einer offenen, interaktiven und unabhängigen Wissenschaftskultur erfolgt die Qualitätssicherung des jfml durch ein Open Peer Review und die medienlinguistische Expertise des Editorial Boards. Das jfml veröffentlicht deutsch- und englischsprachige Artikel, Rezensionen und Tagungsberichte, die fortlaufend erscheinen.
Der Medienlinguistik kommen zwei wesentliche Aufgabenbereiche zu, die die thematischen Eckpfeiler des jfml bilden:
1) Die theoretische und empirische Durchdringung des Verhältnisses zwischen Medialität und Sprachlichkeit: Dieses Verhältnis stellt sich für Kommunikation, Kultur und Kognition als grundlegend dar. Insofern erweist sich die Medienlinguistik als basales sprachwissenschaftliches Forschungsfeld.
2) Die Erforschung von Sprache und Kommunikation unter dem Einfluss medialer Veränderungen. Diese Veränderungen hatten und haben Auswirkungen auf das gesellschaftliche Leben: auf den Alltag, die beruflichen Kontexte und natürlich gerade auch die Öffentlichkeit. Daher sind sowohl auf der Mikro- als auch auf der Makroebene medienlinguistische Analysen notwendig.
Das jfml lädt dazu ein, theoretische, empirische, methodische und methodologische Fragestellungen zu bearbeiten und entsprechende Artikel einzureichen. Ferner sind Rezensionen und Tagungsberichte medienlinguistischer Publikationen und Veranstaltungen erwünscht.
Alle Beiträge erscheinen unter einer Creative Commons-Lizenz (CC BY-SA 4.0 international).
MoSyD-Jahresbericht 2016 : Drogentrends in Frankfurt am Main ; Monitoring-System Drogentrends
(2017)
MoSyD-Jahresbericht 2017 : Drogentrends in Frankfurt am Main ; Monitoring-System Drogentrends
(2018)
GOeTHEO : Ausgabe 19
(2018)
The German government has recently adopted a reform package for the statutory pension insurance scheme to ensure that the pension level will not fall below 48% and that the contribution rate will not exceed 20% up to 2025. In addition, there are planned improvements in maternal pensions, pensions for people with reduced earnings capacity and relief for low-income earners. The total extra cost of these measures is estimated at approximately EUR 32bn, to be financed by funds of the statutory pension system and by increased federal subsidies. It is currently unclear how the German pay-as-you-go pension system will be reformed for the period after 2025. The author suggests establishing a “Pension Fund Germany” as a capital-backed fund with a highly diversified investment portfolio. A German sovereign wealth fund of this kind could make an important contribution to greater intergenerational equity. Financing could be provided by, for example, retaining part of the solidarity surcharge on German income tax rather than abolishing it entirely, as is currently envisaged.
Einleitung: Die chronische Hepatitis C gehört zu den häufigen Ursachen einer Leberzirrhose. Durch die Entwicklung von direkt antiviralen Medikamenten (direct acting antiviral agent, DAA) können Heilungsraten von über 90% bei chronischer Hepatitis C erreicht werden. Der Einfluss des Therapieerfolgs auf Fibroseregression und portale Hypertension ist insbesondere für Patienten mit Leberzirrhose bisher nicht ausreichend geklärt. Elastographische Messungen von Leber und Milz können als Surrogatmarker zur nicht-invasiven Evaluation von Fibroseregression und Rückgang von portaler Hypertension dienen. Ziel der vorliegenden Arbeit war die Evaluation der Dynamik von Leberfibrose und portaler Hypertension mittels transienter Elastographie der Leber (L-TE) und Acoustic Radiation Force Impulse Elastographie von Leber (L-ARFI) und Milz (M-ARFI) bei Patienten mit DAA-induziertem anhaltendem virologischen Ansprechen (sustained virological response, SVR) und Hepatitis C Virus (HCV) assoziierter Leberzirrhose.
Patienten und Methoden: In dieser prospektiven, monozentrischen Studie wurden Daten von 56 Patienten mit chronischer Hepatitis C und assoziierter Leberzirrhose analysiert, die eine SVR nach 12-24 Wochen antiviraler Hepatitis C Therapie mit DAA's erreichten. Dabei wurden zu vier Zeitpunkten (Therapiebeginn [BL], Therapieende [EOT], 24 Wochen nach Therapieende [FU24] und 48 Wochen nach Therapieende [FU48]) Messungen vorgenommen. Zusätzlich wurden Leberzirrhose assoziierte Scores und Komplikationen sowie Laborparameter erhoben.
Ergebnisse: Die elastographischen Messungen der Leber zeigten signifikante Verbesserungen im Studienverlauf, am stärksten während der antiviralen Therapie. Im L-TE zeigten sich Verbesserungen zwischen BL [Median(Min-Max), 32,45(9,1-75)kPa] und FU48[Median (Min-Max), 17,1 (3,7-59,3) kPa] (p<0,0001) und im L-ARFI zwischen BL [Median (Min-Max), 2,7 (1,2-4,1) m/s] und FU24 [Median (Min-Max), 2,5 (1,2-3,9)m/s (p=0,011), wobei signifikante Verbesserungen (≥30%) bei 35/49 (71%) Patienten im L-TE und bei 6/55 (11%) im L-ARFI auftraten. Die M-ARFI Messungen als Korrelat der portalen Hypertension, zeigten kaum Veränderungen. Die medianen Werte blieben zwischen BL [Median (Min-Max), 3,4 (1,9-4,3) m/s] und FU48 [Median (Min-Max), 3,4(2-4,4) m/s] konstant (p=0,9). Nur 2/54 (4%) der Patentien zeigten signifikante Verbesserungen. In der univariaten Analyse zeigten sich 65 als positive Einflussfaktoren der L-TE- und L-ARFI-Verbesserung ein MELD Score bis 10 sowie ein BMI bis 30 kg/m².
Diskussion und Schlussfolgerung: In Zusammenschau der Ergebnisse kann bei einem Teil der Patienten von einer Fibroseregression und dem Rückgang der portalen Hypertension nach DAA-basierter, interferon-freier antiviraler Therapie ausgegangen werden. Die mittels L-ARFI und L-TE gemessene Verbesserung der Lebersteifigkeit unter antiviraler Therapie scheint auf einer Verbesserung von Nekroinflammation und Leberfibrose zu basieren. Bei Nichtbeachtung des Einflusses der Nekroinflammation auf nicht-invasive Messungen der Lebersteifigkeit kann es zur Überschätzung der Fibroseregression nach SVR kommen. Da es sich bei der Zirrhose- bzw. Fibroseregression anscheinend um einen langsamen Prozess handelt, sind ausreichend lange Nachbeobachtungszeiten in entsprechenden Studien zu fordern. Für die mit einer Leberzirrhose assoziierte portale Hypertension gelten ähnliche Überlegungen.
Die Abstrahlung von internen Schwerewellen in atmosphärischen Strahlströmen und Temperaturfronten trägt vermutlich mit einem signifikanten Beitrag zum gesamten Schwerewellenspektrum bei. Das physikalische Verständnis der dabei ablaufenden Prozesse ist derzeit allerdings noch zu gering ausgeprägt, um eine adäquate mathematische Darstellung für operationelle Wetter- und Klimamodelle zu entwickeln. In dieser Arbeit wird der Mechanismus dieser Schwerewellenquelle in numerischen Simulationen des differenziell geheizten rotierenden Annulusexperiments erforscht. Dieses Experiment besitzt eine im Vergleich zur Atmosphäre deutlich verringerte Anzahl an Freiheitsgraden und eignet sich besonders gut zum Studium der Dynamik der mittleren Breiten. Analoge Untersuchungen werden in einem äquivalenten kartesischen Modellsystem vorgenommen, in dem periodische Bedingungen in den beiden horizontalen Raumrichtungen vorliegen.
Im Gegensatz zur Annuluskonfiguration, in der nachweislich auch eine Schwerwellenabstrahlung an den Zylinderwänden erfolgt, kommt in dieser Konfiguration nur die interne Dynamik als Schwerewellenquelle in Frage. Die nichtlinearen Simulationen beider Modellkonfigurationen zeigen eine großskalige barokline Wellenstruktur, die ein atmosphärenähnliches Jet-Front System beinhaltet. Darin eingelagert werden vier voneinander isolierte Schwerewellenpakete in der Annuluskonfiguration sowie zwei Schwerewellenpakete im doppeltperiodischen Modellsystem charakterisiert. Um den zugrundeliegenden Quellmechanismus zu untersuchen, erfolgt eine Aufspaltung der Zustandsvariablen in einen balancierten und einen unbalancierten Anteil, wobei erstgenannter das geostrophische und hydrostatische Gleichgewicht erfüllt und letztgenannter das Schwerewellensignal enthält. Die Strömungsaufspaltung bildet die Grundlage für die Entwicklung eines tangential-linearen Modells für den unbalancierten Strömungsanteil. Hierbei wird eine systematische Umformulierung der dynamischen Grundgleichungen hinsichtlich der Wechselwirkung beider Strömungsanteile vollzogen. Insbesondere wird der rein balancierte Antrieb der unbalancierten Strömung freigelegt, um dessen Einfluss auf die Schwerewellenaktivität zu quantifizieren. Die anschließenden tangential-linearen Simulationen zeigen, dass drei der vier Schwerewellenpakete in der Annuluskonfiguration in der internen Strömung generiert werden. Ein verbleibendes Wellenpaket entsteht an der inneren Zylinderwand, ehe es in das innere Modellvolumen propagiert. Darüber hinaus wird deutlich, dass der rein balancierte interne Antrieb der Schwerewellen einen signifikanten Beitrag zur Schwerewellengenerierung leistet. Im doppeltperiodischen Modellsystem gibt es eine nahezu perfekte Übereinstimmung zwischen den unbalancierten Strömungsmustern in den tangential-linearen und den nichtlinearen Simulationen. Auch dort nimmt der balancierte Antrieb eine zentrale Rolle bei der Schwerewellenabstrahlung ein. Die abschließende Gegenüberstellung verschiedener, voneinander unabhängiger Gleichgewichtskonzepte macht deutlich, dass die balancierte Strömung der führenden Ordnung in der Rossbyzahl bereits eine erstaunliche Übereinstimmung mit der vollen Strömung liefert. Zudem erbringt die Anwendung einer Lagrange'schen Filtermethode den Nachweis, dass die Vertikalbewegungen und die horizontalen Divergenzsignale in der Annuluskonfiguration fast ausschließlich auf die Schwerewellenaktivität zurückzuführen sind.
Zur Unterstützung von Lehrkräften bei der Auswahl eines Sachunterrichtsschulbuchs im Hinblick auf die didaktische Aufbereitung physikalischer Themen wurde ein bereits bestehendes und in der Schweiz eingesetztes Schulbuchraster weiterentwickelt. Die ergänzenden Bewertungskriterien berücksichtigen, inwieweit die Schulbücher physikalische Inhalte in einer Weise präsentieren, dass a) häufige Präkonzepte der Schülerinnen und Schüler aufgegriffen, b) Inhalte strukturiert dargestellt werden, c) multiple externe Repräsentationen zum Einsatz kommen, d) Selbsterklärungen angeregt wie auch e) offene Schülerexperimente angeboten werden. Zudem sollten f) für die Lehrkräfte Zusatzmaterialen mit fachwissenschaftlichen und fachdidaktischen Erläuterungen zur Verfügungen stehen. Ergänzende Erläuterungen der Rasterkriterien sollen eine möglichst objektive Beurteilung unterstützen. Anhand dieses weiterentwickelten Rasters wurden exemplarisch die 2017 in Hessen zugelassenen Sachunterrichtsschulbücher analysiert.
Auf Knopfdruck geht es sekundenschnell in die Tiefe. Als sich die Aufzugstür drei Stockwerke unter der Erde öffnet, tauchen im Licht von Neonröhren unendlich lang erscheinende Regale auf. Viele sind vollgestellt mit Büchern. Andere warten darauf, dass sich ihre Reihen noch füllen. Etwa 2,7 Millionen Bände lagern in unterirdischen Magazinen der Universitätsbibliothek (UB) Johann Christian Senckenberg am Campus Bockenheim. Der Name UB umfasst zum einen die Zentralbibliothek (ZB) am Campus Bockenheim, zum anderen die fünf Bereichsbibliotheken Naturwissenschaften, Recht und Wirtschaft, Sozialwissenschaften und Psychologie, Geisteswissenschaften sowie Medizin.
Martin Luthers theologische Idee der Unterscheidung von Gnade/Evangelium und Gesetz/Vernunft, Glauben/Unglauben und Werk, schränkte die Zweiwertigkeitslogik des Aristoteles auf die Gestaltung der Existenz ein und erwies ihre Ungültigkeit für die Erfassung des Grundes der Existenz. Während Luther die dialektische Struktur der Beziehung von Gestaltung und Grund der Existenz in der Form der o.g. Vorstellung zum Ausdruck brachte, hat G.W.F. Hegel sie auf den Begriff gebracht und damit Luthers Theologie in die Philosophie transformiert.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.
Die Geschichte der europäischen Integration wird in der Regel als Erfolgsgeschichte erzählt, vor allem als wirtschaftliche Erfolgsgeschichte, die sich in Folge kluger und aus historischer Erfahrung getroffener Entscheidungen ergeben habe (vgl. Loth 2014; vgl. auch Mittag 2008). Der Zweite Weltkrieg habe endgültig gezeigt, dass das durch zahlreiche Nationalstaaten gekennzeichnete Europa, sollte es nicht zusammenarbeiten, zu verheerenden Konflikten neige. Und die Zusammenarbeit sei nicht nur politisch klug; sie zahle sich zusätzlich wirtschaftlich aus. So seien allen Teilnehmerstaaten auch in einem ganz ordinär materiellen Sinne Profiteure der europäischen Einigung, die in dieser Logik dann auch gar nicht weit genug gehen kann, bedingen sich hiernach doch das politisch Sinnvolle und das ökonomisch Erfolgreiche gegenseitig – und zwar genau in der Form der supranationalen Organisation, die die Europäische Union mittlerweile angenommen hat. Liest man einen Satz der Bundeskanzlerin Angela Merkel so, dann ist die europäische Integration nach Brüsseler Art deshalb alternativlos, weil es kein vergleichbares Erfolgsmodell gibt. Aus der zunächst durch das Leid des Krieges geprägten Bereitschaft zur Zusammenarbeit ist unter der Hand eine Art Sachzwang geworden, denn von der einmal eingeschlagenen Straße der Integration kann man in dieser Sicht nur unter erheblichen Wohlstandsverlusten und politischen Risiken abweichen.
In dieser Sachzwanglogik war allerdings die Euro-Krise nicht vorgesehen. Sie konnte im strengen Sinne auch gar nicht passieren, war doch die weitere Vertiefung der europäischen Union zur Währungsunion in den 1990er Jahren gerade damit begründet worden, dass derartige Krisen zukünftig ausgeschlossen seien (vgl. Tietmeyer 2005). Dass die Politik auf sie zunächst überrascht, fast panisch und dann durch konsequentes Vorantreiben der institutionellen und finanziellen Integration reagiert hat, zeigt auch, dass hier ein Denken vorherrscht, das nach dem Motto funktioniert, es könne doch nicht sein, was nicht sein dürfe. ...
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Die 8. Fachtagung für Hochschuldidaktik der Informatik (HDI) fand im September 2018 zusammen mit der Deutschen E-Learning Fachtagung Informatik (DeLFI) unter dem gemeinsamen Motto "Digitalisierungswahnsinn? – Wege der Bildungstransformationen" in Frankfurt statt.
Dabei widmet sich die HDI allen Fragen der informatischen Bildung im Hochschulbereich. Schwerpunkte bildeten in diesem Jahr u. a.:
– Analyse der Inhalte und anzustrebenden Kompetenzen in Informatikveranstaltungen
– Programmieren lernen & Einstieg in Softwareentwicklung
– Spezialthemen: Data Science, Theoretische Informatik und Wissenschaftliches Arbeiten
Die Fachtagung widmet sich ausgewählten Fragestellungen dieser Themenkomplexe, die durch Vorträge ausgewiesener Experten und durch eingereichte Beiträge intensiv behandelt werden.
Adorno und die Kabbala
(2015)
Im neunten Band der Reihe geht Ansgar Martins kabbalistischen Spuren in der Philosophie Theodor W. Adornos (1903–1969) nach. Der Frankfurter Gesellschaftskritiker griff im Rahmen seines radikalen materialistischen Projekts gleichwohl auch auf "theologische" Deutungsfiguren zurück. Vermittelt durch den gemeinsamen Freund Walter Benjamin (1892–1940) stieß Adorno dabei auf das Werk des Kabbala-Forschers Gershom Scholem (1897–1982). Zwischen Frankfurt und Jerusalem entwickelte sich eine lebenslange Korrespondenz.
Für Adorno erscheint vor dem Hintergrund lückenloser kapitalistischer Vergesellschaftung jede religiöse Sinngebung in der Moderne als unmöglich. Der Tradition der jüdischen Mystik schreibt er hingegen eine innere Affinität zu dieser hoffnungslosen Logik des "Verfalls" zu. Sie scheint ihm zur unumgänglichen Säkularisierung religiöser Gehalte aufzufordern. Adornos kabbalistische Marginalien beziehen einen breiten Horizont jüdisch-messianischer Ideen ein. Er verleugnet dabei nie, dass es ihm um eine sehr diesseite Verwirklichung geoffenbarter Heilsversprechen zu tun ist: Transzendenz sei als erfüllte Immanenz, als verwirklichte Utopie zu denken. In diesem Anliegen sieht Adorno selbst jedoch gerade seine Übereinstimmung mit der Kabbala.
Adornos kabbalistische Motive, die auf Scholems Forschungen zurückgehen, werden hier ausführlich an seinen Schriften und Vorlesungen untersucht. In seinem Verständnis der philosophischen Tradition sowie im Modell der Metaphysischen Erfahrung suchte er etwa explizit Anschluss an Deutungen der Kabbala: Das unerreichbare Urbild der Philosophie sei die Interpretation der geoffenbarten Schrift. Wie säkularisierte heilige Texte wurden Werke von Beethoven, Goethe, Kafka oder Schönberg so zum Anlass für "mystische" Interpretationen. Deren detaillierte Untersuchung erlaubt, das viel beschworene jüdische Erbe von Adornos Philosophie zu konkretisieren und bedenkenswerte Einzelheiten von der Negativen Dialektik zur Ästhetik in den Blick zu nehmen.
Der 2‘-Desoxyguanosin-Riboschalter gehört zur unter Bakterien weit verbreiteten Klasse der Purin-Riboschalter. Allerdings wurden 2‘-Desoxyguanosin-bindende Riboschalter bisher ausschließlich in M. florum gefunden, damit stellt diese RNA eine Ausnahme unter den ansonsten verbreiteten Purin-Riboschaltern dar. In der vorliegenden Arbeit wurde ein NMR-Strukturmodell des IA-Aptamer-2‘-Desoxyguanosinkomplexes erstellt und anhand der mittels NMRSpektroskopie zugänglichen strukturellen Informationen sowohl Struktur und Dynamik des freien RNA-Aptamers als auch des 2‘-Desoxyguanosinkomplexes charakterisiert. Dabei wurde insbesondere der Einfluss von Mg2+ auf Struktur und Dynamik der jeweiligen Zustände sowie auf den durch 2‘-Desoxyguanosin induzierten Faltungsprozess untersucht.
Mg2+-Ionen modulieren die Faltungstrajektorien von sensorischen RNA-Domänen. Die Übertragbarkeit von Mg2+-abhängigen Charakteristika der RNA-Faltung innerhalb verschiedener Messmethoden ist durch die schlechte Vergleichbarkeit der relativen Konzentrationsverhältnisse eingeschränkt. Die NMR-spektroskopisch beobachtbaren Mg2+-Einflüsse sollten also unter besonderer Berücksichtigung der für NMR benötigten vergleichsweise sehr hohen RNAKonzentrationen mit Ergebnissen aus kalorimetrischen oder fluoreszenzspektroskopischen Messungen interpretiert werden. Die in der NMR-Spektroskopie üblichen hohen Probenkonzentrationen befinden sich in dem Regime, in dem auch der physikalische Effekt des verdrängten Volumens eine Rolle zu spielen beginnt. Demnach ist es für die RNA-Moleküle im NMR-Probenröhrchen bei Konzentrationen von 5-10 mg/ml auch ohne Zugabe von Mg2+ entropisch günstiger, kompakte Konformationen einzunehmen. Die Relevanz des Effekts des verdrängten Volumens für die RNA-Faltung unter NMR-Bedingungen und unter zellulären Bedingungen ist Gegenstand der aktuellen Forschung und wird in dieser Arbeit am Beispiel des IA-Aptamers diskutiert.
Der oft einzigartige Bindungsmodus ubiquitärer Metaboliten durch bakterielle Riboschalter (Montange and Batey, 2006) ermöglicht prinzipiell den Einsatz von RNA-Aptameren in vivo, ohne mit zellulären Proteinsystemen zu interferieren (Mulhbacher et al., 2010). Therapeutische Ziele sind beispielsweise die Anwendung von Riboschaltern gegen bakterielle Pathogene beziehungsweise gegen pathogene Bakterien selbst. Eine weitere Rolle wird RiboschalterElementen zukünftig als Bausteine in der synthetischen Biologie zukommen (Dixon et al., 2010; Knight, 2003; Topp and Gallivan, 2008). Hierfür ist es von grundlegender Bedeutung, Charakterisierung von Struktur als Basis für das Verständnis von Funktion unter zellulären Bedingungen zu etablieren. Im Rahmen einer Zusammenarbeit mit Robert Hänsel aus dem Arbeitskreis von Prof. Dr. Volker Doetsch wurde am Beispiel des IA-Aptamers und einer nichtnatürlichen Sequenzvariante gezeigt, dass eine strukturelle Charakterisierung von Riboschaltern mittels in cell NMR-Spektroskopie möglich ist. In Zusammenarbeit mit Karl von Laer aus der Arbeitsgruppe von Prof. Dr. Beatrix Suess wurden beide RNA-Aptamer hinsichtlich ihrer Funktion in einem biologischen Assay getestet. Die Ergebnisse dieser Experimente zeigten eine deutliche Korrelation von Struktur und Funktion in vivo, während Diskrepanzen zwischen Struktur in vitro und Funktion in vivo demonstriert werden.
Weiterhin wurde im Rahmen dieser Arbeit gezeigt, dass eine gewisse strukturelle Flexibilität der Bindungstaschen regulatorischer RNA-Motive für Selektion und Adaption während Evolution nötig ist. Beispielsweise wurde für den Guanin-Riboschalter gezeigt, dass der nicht-native Ligand 2‘-Desoxyguanosin zur Komplexbildung des Aptamers führt. Demnach könnte die Bindung von 2‘-Desoxyguanosin im Guanin-Riboschalter bereits evolutionär angelegt sein und die Entstehung des IA-Aptamers nach Genomreduktion der Mesoplasmen begünstigt haben. Das IA-Aptamer dagegen bindet Guanin nicht, stattdessen besitzt M. florum auf Guanin spezialisierte Sequenzvarianten dieses Riboschalters (Kim et al., 2007). Strukturell hochauflösende Einblicke in unterschiedliche Zustände der Bindungstasche im G-Aptamer-Thioguaninkomplex, die durch die Lösung der Kristallstruktur des GLoop-Aptamers ermöglicht wurden, unterstützen die Hypothese einer anpassungsfähigen Bindungstasche im G-Aptamer. Für B. subtilis wäre es interessant, die physiologische Bedeutung der Komplexbildung des G-Aptamers mit 2‘-Desoxyguanosin zu untersuchen.
So vielfältig das Studienangebot, so vielfältig sind auch die Studierenden der Goethe-Universität: Ob Bildungsbiographie oder soziale Herkunft, kultureller Hintergrund oder Lebensumstände—die Frankfurter Studierenden sind ein Spiegel der für Stadt und Region charakteristischen Diversität. Das bietet große Chancen für wechselseitiges Lernen, stellt die Universität aber auch vor Herausforderungen. Eine der größten dieser Herausforderungen ist, bei der Weiterentwicklung von Studium und Lehre die Bedürfnisse einer in sich heterogenen Studierendenschaft konstruktiv aufzugreifen. Neben einer regelmäßigen Rückmeldung der Studierenden (etwa im Rahmen der Lehrveranstaltungs- oder Studiengangsevaluation) und studentischem Engagement in universitären Gremien bedarf es hierfür einer fundierten Datenbasis. ...
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Helmut Siekmann erläutert in seinem Beitrag die Einstandspflicht der Bundesrepublik Deutschland für die Deutsche Bundesbank und die Europäische Zentralbank. Dabei kommt er zu dem Schluss, dass weder eine „Haftung der Bundesrepublik Deutschland für Verluste der EZB noch eine Verpflichtung zur Auffüllung von aufgezehrtem Eigenkapital“ besteht.
Dieser Beitrag ist zuerst erschienen in: Festschrift für Theodor Baums zum siebzigsten Geburtstag, S. 1145-1179, Helmut Siekmann, Andreas Cahn, Tim Florstedt, Katja Langenbucher, Julia Redenius-Hövermann, Tobias Tröger, Ulrich Segna, Hrsg., Tübingen, Mohr Siebeck 2017
Über Scheinriesen: Was TARGET-Salden tatsächlich bedeuten : eine finanzökonomische Überprüfung
(2018)
Der TARGET-Saldo der Bundesbank beläuft sich gegenwärtig auf knapp 1 Billion Euro. Kritikern zufolge birgt dieser Umstand hohe Lasten und Risiken für den deutschen Steuerzahler und zeigt, dass Deutschland zu einem „Selbstbedienungsladen“ im Eurosystem geworden sei. Vor diesem Hintergrund erörtert das Papier im Detail, wie TARGET-Salden überhaupt entstehen und was sie finanzökonomisch bedeuten. Die wirtschaftspolitische Analyse kommt zu dem Schluss, dass - anders als von den Kritikern behauptet- unter den Bedingungen einer Währungsunion im Normalbetrieb - TARGET-Salden lediglich Verrechnungssalden ohne weitere Implikationen sind, die aber nützliche Informationen über ökonomisch tieferliegende, regionale Verschiebungen geben können. Unter dem Extremszenario eines Zerfalls der Währungsunion können TARGET-Salden zwar als offene Positionen interpretiert werden, deren spätere Erfüllung würde aber ähnlich dem Brexit von komplizierten politischen Verhandlungen abhängen, sodass über die Werthaltigkeit allenfalls spekuliert werden kann. Sollte man das Extremszenario für bedeutend halten, und politisches Handeln fordern, erscheinen zwei Lösungen sinnvoll. Beide Vorschläge führen zu einer institutionellen Stärkung der Eurozone: i) die Einführung einer Tilgungspraxis, wie sie im US-amerikanischen Fedwire-System angewandt wird. Dabei handelt es sich um eine rein fiktive Tilgung in Form einer Umbuchung auf einem gemeinsamen (Offenmarkt-)Konto bei der EZB; ii) die Bündelung aller monetären Aktivitäten bei der EZB, sodass eine regionale Abgrenzung von Zahlungsvorgängen entfällt (und damit die TARGET-Salden verschwinden), weil alle Banken in direkter Beziehung zu ein und derselben Zentralbank stehen und der Zahlungsverkehr direkt zwischen den beteiligten Banken stattfindet.
Aufbauend auf der ersten universitätsweiten Studierendenbefragung von 2012/13 wurde im Wintersemester 2016/17 im Rahmen einer fächer- und statusgruppenübergreifenden Arbeitsgruppe unter der Leitung der zu diesem Zeitpunkt amtierenden Vizepräsidentin für Studium und Lehre auf Grundlage der ersten Studierendenbefragung der Basisfragebogen für eine zweite universitätsweite Studierendenbefragung weiterentwickelt. Es flossen dabei außerdem Ergebnisse von aktuellen bundesweiten sowie an anderen Hochschulen erfolgten Studierendenbefragungen in den Arbeitsprozess. ...
An der Goethe-Universität wurden im Wintersemester 2017/18 alle Studierenden grundständiger Studiengänge und Masterstudiengänge für die zweite universitätsweite Studierendenbefragung eingeladen (n=45.343) und gebeten Fragen zu ihrer Lebenswirklichkeit und Studiensituation, ihrem soziodemographischen oder bildungsbiographischen Hintergrund zu beantworten sowie Studienbedingungen und Lehrqualität einzuschätzen.
Das Ziel des vorliegenden Gesamtberichts ist die Dokumentation der universitätsweiten Befragungsergebnisse. Insgesamt konnten Antworten von 10.797 Studierende (Rücklauf 24%) in die Auswertungen aufgenommen werden. ...
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Zielsetzung: Beteiligung von Medizinstudierenden im Rahmen der konzeptionellen Entwicklung eines zielgruppenspezifischen und attraktiven allgemeinmedizinischen Lehrangebots im ländlichen Raum.
Methodik: Es wurde ein Fragebogen entwickelt, der die Bewertung der Studierenden hinsichtlich des aktuellen Ablaufs ihres Studiums, den späteren Berufswunsch sowie die Anforderungen an ein zu entwickelndes allgemeinmedizinisches Schwerpunktprogramm im ländlichen Raum erfasst. Mittels einer Online-Befragung wurden im Sommer 2015 alle Medizinstudierende ab dem vierten vorklinischen Semester (n=2.150) der Goethe-Universität Frankfurt einmalig befragt. Die statistische Auswertung erfolgte primär deskriptiv. Die persönliche Einstellung hinsichtlich der Bereitschaft, als Hausarzt tätig zu werden, wurde auf statistische Signifikanz überprüft. Zudem wurde erhoben, ob ein messbarer Zusammenhang zwischen der eigenen Herkunft und dem späteren Wunscharbeitsort besteht.
Ergebnisse: Von insgesamt 2.150 kontaktierten Studierenden nahmen 617 an der Befragung teil (Rücklaufquote=28,7%). Die Ergebnisse repräsentieren eine große Bandbreite an Ideen und Anregungen, die sowohl die Meinung von Befürwortern als auch eher kritisch gegenüber der Lehre in der Allgemeinmedizin eingestellten Medizinstudierenden widerspiegeln. Von dem geplanten Schwerpunktprogramm erwarten die Studierenden einen starken Praxisbezug ebenso wie das Kennenlernen administrativer sowie wirtschaftlicher Hintergründe zum Führen einer Praxis.
Schlussfolgerungen: Durch die Einbeziehung der Zielgruppe am Entwicklungsprozess bestand die Möglichkeit, das zu entwickelnde Schwerpunktprogramm auf die späteren Teilnehmer passgenauer zuzuschneiden. Zudem ist zu erwarten, dass die Beteiligung der Studierenden zu einer höheren Akzeptanz des Programms führt. Die gewonnenen Ergebnisse zur Gestaltung eines Lehrangebots können als Orientierung für die mögliche Entwicklung ähnlicher Schwerpunktprogramme an anderen medizinischen Fakultäten dienen.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
kurz und kn@pp news : Nr. 43
(2018)
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den zweiten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Im ersten Projektbericht (ebenfalls in dieser Arbeitspapierreihe erschienen – Nr. 15) wurden die Entwicklungen der letzten Jahre in den infrastrukturellen Themenfeldern Fahrradmitnahme, Fahrradverleihsysteme und Fahrradabstellanlagen aufgearbeitet und Fragen zu Kommunikation und Marketing der Angebote sowie zu Möglichkeiten der fortschreitenden Digitalisierung zur verbesserten Integration von Fahrrad und Öffentlichem Verkehr diskutiert. Darauf aufbauend werden im vorliegenden Bericht die Ergebnisse vertiefender Fallstudien dargestellt, mit dem Ziel, Erfolgsfaktoren und Hemmnisse für die Integration von Fahrrad mit Öffentlichem Verkehr aufzuzeigen und in einem späteren Schritt daraus Handlungsempfehlungen zur Stärkung dieser Integration für Kommunen und Verkehrsanbieter geben zu können. Für die Fallstudien wurden solche Beispiele ausgewählt, die einen Vorbildcharakter haben und als nachahmenswert für andere Städte und Regionen gelten können bzw. aus denen sich Erkenntnisse für die Stärkung der Integration von Fahrradverkehr mit dem ÖV ziehen lassen. Zudem sollten die verschiedenen infrastrukturellen Themenfelder abgedeckt sein. Neben einer Darstellung der jeweils fallspezifischen Besonderheiten wird zu jedem Fallbeispiel das Betreiber- und Geschäftsmodell dargestellt und es erfolgt eine Bewertung, die sowohl die Sicht der Betreiber als auch die der Nutzenden beachtet.
Folgende Fallbeispiele werden behandelt:
Die hessischen Verkehrsverbünde Rhein-Main-Verkehrsverbund (RMV) und Nordhessischer Verkehrsverbund (NVV) bieten eine kosten- und sperrzeitfreie Mitnahmeregelung für Fahrräder an.
Das MVGmeinRad Mainz ist als Fahrradverleihsystem ein Teil des kommunalen ÖPNV-Unternehmens.
Zu den Fahrradabstellanlagen an Bahnhöfen wurden in der Fallstudie drei unterschiedlich große Anlagen einbezogen: Dein Radschloss des Verkehrsverbundes Rhein-Ruhr (VRR) für kleine, das Radhaus Offenburg für mittelgroße und die Radstation Düsseldorf für große Standorte.
München wurde schließlich für eine kommunale Strategie zur verbesserten Verknüpfung von Fahrrad und Öffentlichem Verkehr ausgewählt, da dort eine Vielzahl von Maßnahmen zur Stärkung der Fahrradmobilität sichtbar sind.
Das Internet ist ein gigantisches Netzwerk von Maschinen. Während sich dessen konkrete Nutzung permanent weiterentwickelt, bleibt dessen Funktion im Kern doch immer der Austausch von Informationen. Die vielfältigen Institutionen der Internet Governance lassen sich als Versuch verstehen, diesen Austausch zu ermöglichen. Eine zentrale Rolle kommt dabei der Internet Corporation for Assigned Names and Numbers (ICANN) zu. Sie verwaltet das globale Adressbuch des Internets und legt so fest, wie weit das Netz des Internets reicht. Die technische Notwendigkeit einer solchen zentralen Instanz wird im Prinzip kaum bestritten. Zunehmend jedoch verschärfen sich die Konflikte darüber, wie weit deren Kompetenzen reichen und wer sie kontrollieren sollte. Letztlich, so möchte ich zeigen, geht es um die Frage, wieviel internationale Autorität in diesem Bereich der Internet Governance notwendig und legitim ist.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.
Innerhalb der Gentrifizierungsforschung analysiert die Rent‑Gap‑Theorie, wie kleinräumige Differenzen zwischen gegenwärtigen Verwertungsbedingungen einerseits sowie Erwartungen auf zukünftig steigende Mieten andererseits Verdrängungsprozesse antreiben. Dementgegen hat Eric Clark (2014) jüngst eingefordert, dass die Stadtforschung den Blick verstärkt darauf richten müsse, wie Verdrängung verhindert werden kann. Diesen Appell aufgreifend, zeigen wir bezogen auf den deutschen Kontext, inwiefern mietrechtliche Regularien, stadtplanerische Entscheidungen und die jeweilige Eigentümerstruktur wesentlich darüber entscheiden, ob sich ein immobilienwirtschaftlicher Verwertungsdruck auch tatsächlich in Verdrängungsprozesse übersetzt. Illustriert wird dies am Wandel der Eigentümerstruktur im Frankfurter Gallus seit den 1970er Jahren. Deutlich wird dabei, dass Gentrifizierung kein Naturgesetz darstellt, sondern ein zutiefst politischer Prozess ist, der sich effektiv verhindern lässt.
Diese Untersuchung basiert auf eine jahrelange Erfahrung des Verfassers in der Arbeit mit Kindern und Jugendlichen aus Armutsverhaltnissen innerhalb von Nichtregierungs-organisationen in Pernambuco/Brasilien. Als Grundlagen wird zunächst die Lebenserfahrung von verarmten Kindern und Jugendlichen im sozialen Alltag diskutiert. Dabei wird unser Blick auf deren Handeln als soziale Subjekte und Protagonisten gerichtet. Als weiteres wird die Entwicklung von Prinzipien einer Bildung durch Arbeit als sozialerzieherisch Konzept auf einem befreiungspadaegogischen Hintergrund (Educação Popular) dargestellt. Dazu werden einige Aspekt zu dem ganzheitlichen Verstandinis von Bildung als Gemeinschaftserfarung erortet. Die anschließende Auseinander setzung mit den Autoren Karl Marx, Antônio Gramisci, anton Seminióvith Makarenko, Celestin Freinet und Paulo Freire versteht sich als Beitrag zur Diskussion der Konzepts Bildung durch Arbeit in Einigen leitenden Prinzipien. Die in der nun folgende Fallstudie verwandten Daten wurden anhand einer Aktionsforchung (Pesquisa-ação) erhoben. Nach der Beschreibung der Hauptmerkmale und Konzepte der sozialerzieherischen Arbeit von fünf Bildungsprojekten in Pernambuco, werden die Lern und Arbeitswerkstatten in Hinsicht auf die Wissensproduktion und den Kompetenzerwerb analysiert. Dabei werden die humanitäre, gemeinschaftsbildende, Bildungsbezogene, kulturelle und entwicklungszogene Dimensionen dieses Wissens hervorgehoben.Im folgenden werden Fragen für den schulischen Bereich aufgeworfen. Abschließend werden Perspektiven und Vorschage zum weiteren Denken und Handeln über das Forchungsthema aufgezeigt.
Sissi im Film
(2018)
Die Straßen deutscher Städte werden überwiegend vom Automobil dominiert, was nicht nur die gebaute Umwelt prägt, sondern auch die politischen Entscheidungen beeinflusst, wenn es um die Verteilung des Straßenraumes geht. Dass jedoch am Anfang der Mobilität das Zufußgehen steht und ein gut geplanter städtischer Fußverkehr nicht nur einen Beitrag zur Sicherheit der Fußgänger*innen leistet, sondern auch die Zukunft urbaner Mobilität gewährleistet, wird oft vergessen. Obwohl der Fußverkehr zahlreiche Potentiale bietet, bekommt er im öffentlichen Raum deutlich weniger Entfaltungsspielraum zur Verfügung gestellt. Die Zufußgehenden werden dort häufig kanalisiert und an den Rand gedrängt, was Einfluss auf ihr Verhalten nimmt. Diese Marginalisierung der Fußgänger*innen wird zusätzlich hervorgerufen durch eine geringe Beachtung jener in der städtischen Planung und Politik sowie in der Wissenschaft und Gesellschaft. Demnach stehen sie im Konfliktverhältnis zur persistenten und sozial konstruierten Struktur der Straße.
Die vorliegende Untersuchung überprüft, warum die Fortbewegung zu Fuß in der gebauten Straßenumwelt und ihrer Raumaufteilung im Vergleich zu anderen Verkehrsmitteln eine untergeordnete Rolle spielt und welchen Einfluss der planerische und politische Umgang und die Gestaltung des Straßenraumes darauf nimmt. Dies geschieht mittels eines Fallbeispiels in Frankfurt am Main, der Schweizer Straße. Im Rahmen der Studie werden Ergebnisse aus teilnehmenden Beobachtungen der Zufußgehenden der Schweizer Straße und deren Verhaltensweisen im öffentlichen Straßenraum sowie aus qualitativen Interviews mit Expert*innen der gebauten Straßenumwelt Frankfurts zusammengetragen. Das übergeordnete Ziel der Arbeit ist, ein Verständnis für die Wechselwirkung zwischen Raumstruktur, planerischem Einfluss und Mobilität zu entwickeln sowie die Konflikte der Raumaufteilung für die Fußgänger*innen herauszuarbeiten, um den Fußverkehr gezielter fördern zu können.
Das Peptidhormon Orexin (Hypokretin), das insbesondere in Neuronen des lateralen Hypothalamus synthetisiert wird, hat nach neueren Untersuchungen neben dem Einfluss auf das Essverhalten eine entscheidende Funktion im Schlaf-Wach Verhalten. In optogenetischen Untersuchungen, in denen modifizierte Zellen durch Licht aktiviert werden, konnte durch die Hochregulation von Orexin eine deutliche Wachheits- und Aktivitätszunahme der Tiere verzeichnet werden. Bei erhöhter MCH Freisetzung war eine vermehrte Schlafneigung beobachtet worden. Orexin und MCH scheinen demnach gegensinnige Funktionen in der Schlaf-Wach Regulation einzunehmen.
Mit der vorliegenden Arbeit wurden genauere Einblicke in das orexinerge System im Gehirn von zwei unterschiedlichen Mäusestämmen gewonnen. Es ist nach unserem Wissensstand die erste Arbeit, die das Reaktivitätsmuster von Orexin und MCH bei C3H- und C57BL-Mäusen im Hinblick auf Schlaf und Schlafentzug beleuchtet. Der Vergleich zwischen den Mäusestämmen ist im Besonderen interessant, weil die C57BL-Mäuse das pineale Schlafhormon Melatonin nicht bilden.
Beide Mäusestämme wurden nach Adaptation während drei unterschiedlicher Funktionszustände semiquantitativ immunhistochemisch untersucht: im Schlaf, im aktiven Zustand sowie nach 6-stündigem Schlafentzug. Nach Fixierung der Gehirne wurden die angefertigten Hirnschnitte immunhistochemisch gefärbt und mikroskopiert. Die Semi-Quantifizierung der Immunreaktivität erfolgte durch eine etablierte Bildbearbeitungsmethodik.
Das Verteilungsmuster Orexin- und MCH-ir Neurone ist zwischen den jeweiligen Mäusestämmen gleich und zeigt eine gegenseitige Innervation. Dies spricht für eine geregelte Interaktion beider Botenstoffsysteme.
Weiterhin zeigte sich eine deutliche Schlaf-physiologische Korrelation orexinerger Neurone mit der höchsten Immunreaktivität während der Wachheit. Es konnte jedoch kein Unterschied der Immunreaktivität in Bezug auf Lokalisation und Stadien zwischen C3H- und C57BL-Mäusen nachgewiesen werden, sodass davon auszugehen ist, dass die Melatonindefizienz der C57BL keine bedeutende Rolle in der zirkadianen Regulation von Orexin spielt.
Im Gegensatz zu Orexin konnte kein signifikanter Unterschied in der Immunreaktivität MCH-ir Neurone zu den unterschiedlichen Vigilanzstadien festgestellt werden.
Vermutlich spielt die relative Inaktivität von Orexin in Kombination mit aktiver Sekretion von MCH eine wichtige Rolle in der Induktion und Kontrolle von Schlaf.
Es sind noch viele Fragen offen; insbesondere die Interaktion zwischen Wachheit- und Schlaf-induzierenden Neuronen deren Regulation. Auch der Einfluss vom Nucleus suprachiasmaticus auf Oreginerge/MCHerge Neurone, sowie das Verhältnis von Melatonin zu Orexin und MCH bedarf weiterer Forschungen.
Das T-lymphoblastische Lymphom (T-LBL) ist eine seltene Form des Non-Hodgkin-Lymphoms (NHL). Als wirksamste Behandlung haben sich intensive Therapien analog zu Protokollen für die akute lymphoblastische Leukämien (ALL) etabliert. Auch bei Erwachsenen werden inzwischen hohe CR-Raten erreicht. Aufgrund einer Rezidivrate von 20–35 % und einem Überleben von 45–75% besteht jedoch der Bedarf einer weiteren Therapieoptimierung. Dieses Ziel wird von der multizentrischen deutschen Studiengruppe für die ALL des Erwachsenen (GMALL) verfolgt, die prospektive Studien durchgeführt und eigene Therapieempfehlungen evaluiert hat.
In der vorliegenden Arbeit wurde die Effektivität der GMALL-Studientherapie T-LBL 1/2004 und der GMALL-Konsensus-Empfehlung für die Therapie neu diagnostizierter T-LBL bei Erwachsenen untersucht. Hauptaugenmerk lag auf der Auswertung der Gesamtergebnisse und der Evaluierung potentiell prognostischer Faktoren. Eine weitere wesentliche Fragestellung war es, die Bedeutung der Mediastinalbestrahlung in der Erstlinientherapie für das Therapieergebnis zu evaluieren. Ein weiterer Schwerpunkt war die Evaluation der Bedeutung eines Interimstagings mittels PET. Zusätzlich wurde die Wirksamkeit verschiedener Salvageansätze bei primärem Therapieversagen und Rezidiv evaluiert.
Ausgewertet wurden Daten von 149 Patienten, die zwischen 2004 und 2013 in zwei konsekutiven Kohorten gemäß der Studie GMALL T-LBL 01/2004 (Kohorte I; n = 101) oder der GMALL-Therapieempfehlung (Kohorte II; n = 48) behandelt wurden. Die empfohlene Therapie beinhaltete zwei Induktionsblöcke, die Reinduktion sowie sechs Konsolidationsblöcke. Die ZNS-Prophylaxe bestand aus intrathekalen Chemotherapiegaben und eine Schädelbestrahlung mit 24 Gy. Patienten, die gemäß der Studie 01/2004 behandelt wurden, sollten nach der Induktion außerdem eine Mediastinalbestrahlung mit 36 Gy erhalten. Patienten ohne CR/CRu nach dem ersten Konsolidationsblock sollten einer Salvagetherapie außerhalb des Studienprotokolls oder der Therapieempfehlung zugeführt werden. Bei mittels CT bestimmter CRu oder PR zu diesem Zeitpunkt wurde zur Sicherung des Remissionsstatus eine PET empfohlen.
Die CR-Rate der Gesamtpopulation lag bei 76 %. Das Gesamtüberleben und das erkrankungsfreie Überleben nach zwei Jahren lagen bei 72 bzw. 70 %. Die Rezidivrate betrug 28 %, die Überlebenswahrscheinlichkeit ein Jahr nach Rezidivdiagnose lag bei 35 %. Es bestand kein statistisch signifikanter Unterschied zwischen den Überlebensraten von Patienten mit und ohne Mediastinalbestrahlung (bestrahlte Patienten der Kohorte vs. Patienten der Kohorte II). Alle Patienten mit computertomographisch ermittelter CRu nach Konsolidation I, bei denen eine konfirmatorische PET durchgeführt wurde (n=21), waren PET-negativ, d. h. in metabolischer CR. Von den PET-evaluierten Patienten mit computertomographisch ermittelter PR (n = 22) waren 55 % PET-negativ. In der Gesamtpopulation wurden zahlreiche potentielle Prognosefaktoren analysiert. Statistische Signifikanz erreichte dabei nur der Allgemeinzustand. Ein ECOG-Score von 0–1 war mit einem günstigeren erkrankungsfreien Überleben assoziiert.
Die Ergebnisse zeigen eine gute Effektivität der GMALL-Therapie. Der Verzicht auf die Mediastinalbestrahlung in der Therapieempfehlung war nicht mit einer Verschlechterung des Therapieergebnisses verbunden. Die Arbeit verdeutlicht die Komplexität der frühen Remissionsbeurteilung mit verschiedenen Verfahren im Versorgungsstandard und unterstreicht den dringenden Bedarf einer standardisierten Remissionsbeurteilung und Referenzbefundung. Die PET erwies sich als wichtiges Instrument des Interimstagings, um eine remissionsabhängige Therapiestratifikation sinnvoll durchführen zu können. Sie zeigte sich zudem als unerlässlich für die korrekte Bewertung der Effektivität von Salvagestrategien und damit für die Therapieoptimierung bei primärer Refraktärität.
Die in dieser Arbeit ausgewerteten Daten bilden die bisher größte berichtete Population einheitlich behandelter erwachsener T-LBL Patienten ab. Die Ergebnisse stellen eine wichtige Grundlage für die weitere Therapieoptimierung im Rahmen der aktuell laufenden GMALL-Studie 08/2013 dar.
Diabetes-assoziierte Fußulzerationen (diabetic foot ulcerations, DFU) repräsentieren eine schwerwiegende klinische Komplikation der Wundheilung. Bislang sind pharmakologische Behandlungsansätze diabetischer Wundheilungsstörung unzureichend und limitiert. Der Erkenntnismangel der zugrundeliegenden zellulären und molekularen Mechanismen gestörter Wundheilung ergänzt die unzufrieden stellende klinische Situation. In den vergangenen Jahren sind vermehrt zelluläre Wundverbände in den klinischen Fokus gerückt. Sie ermöglichen eine individuelle, dynamische Wundbehandlung und haben in den ersten klinischen Studien vielversprechende Ergebnisse gezeigt.
In der vorliegenden Arbeit ist ein zellulärer Wundverband der Firma Boehringer Ingelheim genutzt worden, um die Wundheilung in diabetischen db/db-Tieren zu analysieren. Der Wundverband (BAWD; biological active wound dressing) besteht aus humanen Keratinozyten, die auf einer Hyaluronsäure-haltigen Matrix kultiviert werden.
Nach topischer Anwendung der lebenden Wundauflage war eine Interaktion humaner Keratinozyten mit murinem Wundgewebe zu beobachten. Die gestörte diabetische Wundheilung in der db/db-Maus war nach BAWD-Behandlung in einem um 30 % verbesserten Wundverschluss und dem Aufbau qualitativ neuen Gewebes deutlich verbessert.
Aufgrund der unverändert hohen Expression von Zyto- und Chemokinen in der frühen und späten Heilungsphase wurde eine Dämpfung der Immunantwort ausgeschlossen. Vielmehr war eine BAWD-vermittelte differenzielle Immunzellverteilung festzuhalten. Zudem zeigten Whole-Genom-Sequenzanalysen eine BAWD-induzierte Expression von Genen auf, die regenerative M2-ähnliche M[Phi] charakterisieren.
Außerdem scheint die BAWD-Anwendung nach Auswertung immunhistochemischer Daten und über die signifikant erhöhte CD29-, CD44- und Sca1-mRNA-Expression die Rekrutierung heilungsfördernder MSCs zu begünstigen, denen ein potentiell anti-entzündlicher Charakter zugesprochen wird.
In dieser Arbeit konnte zudem ein neuer Regelkreis kutaner Wundheilung beschrieben werden, der auf Basis der Expression muskelspezifischer Faktoren und der transienten Ausbildung kontraktiler Elemente in der Wunde normal heilender Tiere beruht, die bislang nicht beschrieben wurden. Interessanterweise induzierte eine BAWD-Anwendung die Expression muskelspezifischer Gene und Proteine in der Wundheilung diabetischer Tiere. Möglicherweise stellt die Ausbildung kontraktiler Elemente neben der Differenzierung von Fibroblasten zu Myofibroblasten eine ergänzende Komponente für einen beschleunigten Wundverschluss dar. Diese Befunde eröffnen neue Möglichkeiten zu Verständnis und Therapie diabetischer gestörter Wundheilung im humanen Organismus.
Modellierung der klimatischen Habitateignung verschiedener krankheitsübertragender Vektorarten
(2018)
Der Klimawandel hat einen starken Einfluss auf die Verbreitungsgebiete von Arten. Infolgedessen kann sich das Verbreitungsgebiet von Arten verschieben, einschränken oder ausweiten. Bei thermophilen Arten wird vermutet, dass sie von den klimatischen Änderungen profitieren und sie sich wahrscheinlich ausbreiten werden. Eine solche Ausbreitung, wozu auch die Einwanderung von gebietsfremden Arten zählt, hätte nicht nur zahlreiche Konsequenzen für diese Ökosysteme, sondern könnte sich auch zu einem ernsten Gesundheitsrisiko entwickeln, wenn es sich bei den einwandernden Neobiota um Vektorarten handelt.
Stechmücken und Sandmücken, als blutsaugende Insekten, zählen zu den bekanntesten Vektorarten. Sie sind in der Lage, eine Vielzahl von Infektionskrankheiten wie das Denguefieber oder das Gelbfieber, aber auch protozoische Parasiten wie "Leishmania"-Arten zu übertragen. Als thermophile Arten sind viele dieser Vektoren aktuell in ihrer Verbreitung weitgehend auf tropische und subtropische Gebiete beschränkt. Eine Einwanderung in gemäßigtere Gebiete kann zu einer Einschleppung der durch sie übertragenden Erreger führen und damit zum Ausbruch von Infektionskrankheiten. Aufgrund der medizinischen Relevanz dieser Arten ist es essentiell, die räumliche Verbreitung, sowie die abiotischen Ansprüche der Vektorarten zu kennen, um deren mögliche Ausbreitung nachzuvollziehen.
Vor diesem Hintergrund beschäftigte sich die vorliegende kumulative Dissertation mit den klimawandelinduzierten Änderungen der Habitateignung verschiedener medizinisch relevanter Vektorarten. Dabei wurden die zwei invasiven Stechmückenarten "Aedes albopictus" (I-III) und "Aedes japonicus" (III), sowie zehn in Europa bereits vorkommende Sandmückenarten der Gattung "Phlebotomus" (IV), untersucht. Die Arbeit basiert auf vier (ISI-) Publikationen. Unter Verwendung ökologischer Nischenmodellierung wurden geeignete Gebiete unter aktuellen und zukünftigen Klimabedingungen bestimmt. Um dabei sowohl räumliche als auch zeitliche Aspekte zu berücksichtigen, wurden mehrere räumliche Skalen (Deutschland und Europa), sowie Zeitperioden (2030, 2050 und 2070) betrachtet. Des Weiteren wurden verschiedene Ansätze (einzelne Algorithmen und Ensemble-Modelle) zur Modellierung der Habitateignung verwendet.
Die Ergebnisse dieser Dissertation zeigen eine zukünftige klimawandelbedingte Ausweitung der geeigneten Gebiete für viele der betrachteten Vektorarten. So konnte gezeigt werden, dass die Habitateignung für "Aedes albopictus" in Deutschland (I) und in Europa (III) zukünftig deutlich zunimmt. Auch für die Sandmückenarten "Phlebotomus alexandri", "Phlebotomus neglectus", "Phlebotomus papatasi", "Phlebotomus perfiliewi" und "Phlebotomus tobbi" konnte eine deutliche Zunahme der klimatisch geeigneten Gebieten projiziert werden (IV).
Lediglich Arten, wie die Asiatische Buschmücke "Aedes japonicus" (III) und auch kältetolerantere Sandmücken, wie "Phlebotomus ariasi" und "Phlebotomus mascittii" (IV) scheinen weniger von diesen klimatischen Veränderungen zu profitieren und könnten in Zukunft sogar aktuell geeignete Gebiete verlieren (klimawandelinduzierte Arealverkleinerung). Bei "Aedes japonicus" konnte dies auf eine engeren Nische mit einem Optimum bei vergleichsweise niedrigen Temperaturen zurückgeführt werden (III).
Am Beispiel von "Aedes albopictus" wurden ferner Umweltfaktoren identifiziert, die die Verbreitung der Art limitieren (II). Als wärmeliebende Art spielen bei "Aedes albopictus" in Mitteleuropa insbesondere die niedrigen Temperaturen eine Rolle, während in Zukunft die Sommertrockenheit in Südeuropa zunehmend eine Rolle spielen könnte.
Nischenmodellierung stellt trotz ihrer vereinfachenden Annahmen und Unsicherheiten, eine hilfreiche Methode zur Untersuchung klimawandelinduzierter Arealverschiebungen dar. Mit Hilfe der Modellierungsergebnisse konnten Gebiete mit einem hohen Etablierungsrisiko für die Vektorarten identifiziert werden, welche daher im Fokus künftiger Überwachungsprogramme stehen sollten. In Zukunft könnten mehr Vektorarten geeignete Bedingungen in Mitteleuropa finden, wodurch die Vektordiversität zunehmen wird. Dadurch könnte auch das Risiko für einen Ausbruch der durch die Vektoren übertragenen Krankheiten steigen.
Auch wenn das Vorhandensein eines kompetenten Vektors eine unerlässliche Voraussetzung für den Ausbruch einer Infektionskrankheit darstellt, gibt es noch weitere Faktoren, wie das Vorhandensein des Erregers. In Bezug auf die Risikoabschätzung vektorassoziierter Krankheiten sollten neben der Verbreitung des Vektors und des Erregers auch die abiotischen Bedingungen für die Entwicklung des Erregers berücksichtigt werden. Neben neu eingewanderten Arten sollten zudem auch die heimischen Arten in Bezug auf ihre Vektorkompetenz untersucht werden, da diese ebenfalls als potentielle Vektoren dienen und somit das Gesundheitsrisiko weiter erhöhen könnten.
Nukleinsäuren besitzen neben der Speicherung und Übertragung der genetischen Information weitere vielfältige Funktionen in einem komplexen und dynamischen Netzwerk von gleichzeitig ablaufenden Prozessen in der Zelle. Die gezielte Kontrolle bestimmter Nukleinsäuren kann helfen, die jeweiligen Prozesse zu studieren oder auch zu manipulieren. Photoaktive Verbindungen, wie photolabile Schutzgruppen oder Photoschalter, sind ideal dazu geeignet die Struktur und Funktion von Nukleinsäuren zu studieren. Photolabile Schutzgruppen werden dazu meistens auf die Nukleobase installiert und stören die Watson-Crick Basenpaarung. Dies verhindert die Ausbildung einer Sekundärstruktur oder die Möglichkeit einen stabilen Doppelstrang zu bilden. Licht ist ein nicht-invasives Trigger-signal und kann mit hoher Orts- und Zeitauflösung angewendet werden, um selektiv die temporär geschützten Nukleinsäuren in der Zelle zu aktivieren.
Das erste Projekt dieser Arbeit ist eine Kooperation mit der Arbeitsgruppe von Prof. Erin Schuman (MPI für Hirnforschung) und beschäftigt sich mit der lichtgesteuerten Regulation der miR-181a Aktivität in hippocampalen Neuronen von Ratten. Die Langzeitpotenzierung (LTP) ist der primäre Mechanismus von synaptischer Plastizität und somit essentiell für Lernen und Gedächtnis. Die langfristige Aufrechterhaltung von LTP erfordert eine gesteigerte (lokale) Proteinbiosynthese, ein Prozess, der noch nicht vollständig aufgeklärt ist. Die miR-181a reguliert die Genexpression von zwei für synaptische Plastizität wichtigen Proteinen, GluA2 und CaMKIIα. Mit einem lichtaktivierbaren AntimiR sollte der Einfluss der miR-181a auf die lokale Proteinsynthese von CaMKIIα und GluA2 untersucht werden. Photolabile Schutzgruppen sollen eine ortsaufgelöste Aktivierung des AntimiRs in den Dendriten ermöglichen. Ein Tracking-Fluorophor sollte die Lokalisierung des AntimiRs und eine gezielte Lichtaktivierung ermöglichen. Die Bindung der miRNA sollte fluoreszent visualisiert werden können, um eine Korrelation zwischen der inhibierten Menge an miR-181a und den neu synthetisierten CaMKIIα-Molekülen zu untersuchen. In diesem Projekt wurden drei Konzepte zur Synthese von lichtregulierbaren AntimiR-Sonden verglichen: Das erste Konzept verwendete eine Thiazolorange-basierte Hybridisierungssonde nach Seitz et al. Allerdings war mit diesem Konzept der Fluoreszenzanstieg zur Visualisierung der Hybridisierung zu gering. Im zweiten Konzept wurde ein dual-Fluorophor markierter Molecular Beacon entwickelt, bei dem die photolabilen Schutzgruppen in der Schleifen-Region die Hybridisierung der miR-181a vor Belichtung verhinderten. Nach Optimierung der Stammlänge, Anzahl und Position der photolabilen Schutzgruppen, sowie Auswahl des idealen Fluorophor-Quencher Paars, konnte nach UV-Bestrahlung in Anwesenheit der miR-181a ein signifikanter Anstieg des Hybridisierungsreporter-Fluorophors gemessen werden. Das dritte Konzept untersuchte lichtaktivierbare Hairpin-Sonden, bei denen ein Gegenstrang (Blockierstrang) über einen photospaltbaren Linker mit dem AntimiR verknüpft wurde. Dabei musste die optimale Länge des Blockierstrangs und die Anzahl der photo-spaltbaren Linker im Blockierstrang ermittelt werden, sodass die miR-181a erst nach Photoaktivierung das AntimiR binden und den Quencher-markierten Strang verdrängen konnte. Die in vitro Experimente vom Arbeitskreis Schuman waren zu dem Zeitpunkt des Einreichens dieser Arbeit noch nicht abgeschlossen. Erste Ergebnisse zeigten, dass der mRNA und Protein-Level von CaMKIIα eines gesamten hippocampalen Neurons durch ein nicht-lichtaktivierbare AntimiR um den Faktor ~1,5 gesteigert werden konnte. Zudem konnte durch die lokale Bestrahlung einer lichtaktivierbaren Hairpin-Sonde die lokale Gen-expression von CaMKIIα in einem Dendriten deutlich gesteigert werden.
Das zweite Projekt dieser Arbeit beschäftigte sich mit der reversiblen Lichtregulation von DNA und RNA durch Azobenzol Photoschalter. Azobenzole eignen sich ideal für die Regulation der Duplexstabilität, denn das planare trans-Azobenzol kann zwischen die Basen interkalieren und somit einen Doppelstrang stabilisieren. UV-Licht überführt das trans-Isomer in das cis-Isomer. Dies ist gewinkelt, benötigt mehr Platz und stört dadurch die Stabilität eines Nukleinsäuredoppelstrangs. Entscheidend für die Effizienz der Regulation der Duplexstabilität ist der Linker, der das Azobenzol mit der Nukleinsäure verknüpft. Während vorangegange Studien von Asanuma et al. unnatürliche Linker (D-Threoninol, tAzo) verwendeten, wurde in dieser Studie das Azobenzol mit der C1‘-Position von (Desoxy-)Ribose C-Nukleoside verknüpft, um Azobenzol (pAzo und mAzo) zu erhalten. Der Riboselinker sollte die helikale Natur der Nukleinsäure optimal nachahmen und möglichst wenig Störung des Ribose-Phosphat-Rückgrats bewirken. Thermische Stabilitätsstudien zeigten, dass UV-Licht induzierte trans-zu-cis Isomerisierung den Schmelzpunkt eines RNA- und DNA-Duplexes um 5,9 und 4,6 °C erniedrigte. Dabei führte der Austausch eines Nukleotids gegen pAzo oder mAzo zu einer effektiveren Regulation der Duplexstabilität als der zusätzliche Einbau eines Azobenzol C-Nukleosids in die Sequenz. Ein Vergleich mit dem in der Literatur etablierten System, tAzo, zeigte, dass pAzo und mAzo teilweise einen stärkeren Duplexdestabilisierungseffekt nach UV-Bestrahlung bewirkten.
...
Mehr als 6.600 Doktorandinnen und Doktoranden forschen an der Goethe-Universität Frankfurt am Main. Das und vieles mehr ergab die erste repräsentative Umfrage unter Promovierenden und ihren Betreuern, die im Auftrag der Universität durch das Berliner Institut für Forschungsinformation und Qualitätssicherung (iFQ) durchgeführt wurde. Das gute Ergebnis ist nicht zuletzt auf GRADE, die Goethe Graduate Academy, zurückzuführen, dem universitätsübergreifenden Zentrum für die Doktorandenausbildung. ...
Die Diskussion über die zeitgenössische Globalethik im Kontext von Hans Küng und Iḫwān aṣ-ṣafāʾ
(2013)
Die Menschheit befindet sich in einer globalen Krise, die sich nicht nur im wirtschaftlichen, politischen und ökologischen Bereich zeigt. Auch Religion und Moral sind davon betroffen. Die Modernisierung führt zunehmend dazu, dass menschliche Werte wie bedingungslose Solidarität, Aufrichtigkeit, Hilfsbereitschaft und Großzügigkeit immer mehr durch Geldgier und Ausbeutung der Umwelt ersetzt werden. Man beschwert sich oft über die Kriegsgefahren, über die Probleme des Bevölkerungswachstums, die Umweltverschmutzung und die Vergiftung von Gewässern sowie über die Gefahr des globalen Terrors. Viele dieser Probleme berühren Religion und Moral, die nicht unabhängig von modernen Problemen denkbar sind. Globaler Terror hat beispielsweise neben vielen anderen Faktoren auch religiös begründete Motive.
Kontinuierlich hohe Stickstofffrachten der Elbe und weiterer Nordseezuflüsse haben die Internationale Nordseeschutzkonferenz (INK) Ende der 80er Jahre dazu veranlasst, eine 50%ige Reduzierung der N-Einträge in die Nordsee innerhalb von 10 Jahren zu beschließen. Diese Reduzierung wurde in diesem Zeitraum nicht erreicht. Für Oberflächengewässer wurde im Jahr 2001 zur Umsetzung der EU-Wasserrahmenrichtlinie in Bundesdeutsches Recht von der Länderarbeitsgemeinschaft Wasser (LAWA) in Zusammenarbeit mit dem Umweltbundesamt (UBA 2001d) eine Güteklassifikation für Nährstoffe erstellt, die einen Wert von 3 mg/l N für Oberflächengewässer festgelegt. Am Beispiel der mittleren Mulde, die kontinuierlich hohe Stickstoffkonzentrationen von durchschnittlich 6 mg N /l aufweist, wird deutlich, dass eine Reduzierung der N-Einträge zur Erzielung der geforderten Gewässergüte unabdingbar ist. Sowohl für die Meere als auch für die Oberflächengewässer ist eine Halbierung der N-Einträge eine umweltpolitische Notwendigkeit. Im Rahmen des Projektes „Gebietswasserhaushalt und Stoffhaushalt in der Lößregion des Elbegebietes als Grundlage für die Durchsetzung einer nachhaltigen Landnutzung“ wurden deshalb die Wasser- und Stickstoffflüsse im Einzugsgebiet der mittleren Mulde (2700 km²) flächendifferenziert erfasst, um die N-Eintragpfade zu quantifizieren und Maßnahmen zur Minderung der N-Frachten abzuleiten. ...
Der Name Histamin hat seinen Ursprung aus dem griechischen Wort "histos" (Gewebe) und spielt auf sein breites Spektrum an Aktivitäten, sowohl unter physiologischen als auch unter pathophysiologischen Bedingungen an. Histamin ist eines der Moleküle mit welchem man sich im letzten Jahrhundert am intensivsten beschäftigt hat.
Im Jahr 1907 wurde das Histamin erstmals synthetisiert. Drei Jahre später gelang es, dieses Monoamin erstmals aus dem Mutterkornpilz Claviceps purpurea zu isolieren. Weitere 17 Jahre vergingen, ehe Best et al. Histamin aus der humanen Leber und der humanen Lunge isolieren konnten. Best konnte somit beweisen, dass dieses biogene Amin einen natürlichen Bestandteil des menschlichen Körpers darstellt. Nach der Entdeckung wurden dem Histamin mehrere Effekte zugeschrieben. Dale et al. beobachteten, dass Histamin einen stimulierenden Effekt auf die glatte Muskulatur des Darms und des Respirationstraktes hat, stimulierend auf die Herzkontraktion wirkt, Vasodepression und ein schockähnliches Syndrom verursacht.
Popielski demonstrierte, dass Histamin dosisabhängig einen stimulierenden Effekt auf die Magensäuresekretion von Hunden hat. Lewis wiederum beschrieb erstmals, dass Histamin einen Effekt auf der Haut hervorruft. Dies zeigte sich durch verschiedene Merkmale, wie geröteter Bereich aufgrund der Vasodilatation und Quaddeln aufgrund der erhöhten Gefäßpermeabilität. Des Weiteren wurde Histamin eine mediatorische Eigenschaft bei anaphylaktischen und allergischen Reaktionen zugeschrieben. Zusätzlich spielt das biogene Amin eine entscheidende Rolle im zentralen Nervensystem (ZNS), unter anderem beim Lernen, bei der Erinnerung, beim Appetit und beim Schlaf-Wach-Rhythmus. Von den zahlreichen physiologischen Effekten des Histamins ist seine Rolle bei Entzündungsprozessen, der Magensäuresekretion und als Neurotransmitter am besten verstanden.
Personen- und Organisationsmerkmale als Gelingensbedingungen im pädagogischen Vorbereitungsdienst
(2018)
Die vorliegende Arbeit greift die defizitäre empirische Befundlage zur Wahrnehmung der zweiten Ausbildungsphase des Lehrerberufs – dem Referendariat – auf. Sie geht der Frage nach, wie das Belastungserleben der Referendare mit Merkmalen der Person oder Organisation verknüpft ist. Bestehende Forschungsaktivtäten legen ihren Fokus auf die Wahrnehmung erfahrener Lehrkräfte im Beruf. Es fehlt an Studien, die das Erleben im Referendariat diskutieren. Die vorliegende, primär explorativ ausgerichtete Arbeit nimmt diese Ausbildungsphase in den Blick. Die Datenbasis der Arbeit bildet die Evaluationsstudie „Pädagogische Entwicklungsbilanzen an Studienseminaren“ (PEB-Sem), die in Hessen zum Einsatz kam. Es werden Daten von 3808 Referendaren sekundäranalytisch ausgewertet. Da die Beschreibung der Untersuchungsgruppe im Referendariat selbst wenig Vergleichsmöglichkeiten zur Absicherung der Daten bietet, wurde PEB-Sem im Praxissemester bei einer Vergleichsgruppe von Lehramtsstudierenden an der Goethe-Universität eingesetzt.
Personale Merkmale im Umgang mit Belastungen wurden über objektive Aspekte (Alter, Geschlecht, Lehramtsstufe, pädagogische Vorerfahrungen) sowie über Persönlichkeitscharakteristika (Selbstwirksamkeitserwartungen, Resilienz) operationalisiert. Merkmale der Organisation des Vorbereitungsdiensts wurden über Skalen erhoben, welche die Ausbildungsbeziehungen zwischen Referendaren und Ausbildern, Mentoren sowie der Seminarleitung oder die Kohärenz der Ausbildung erfassen.
In den Ergebnissen der Analyse personenbezogener Merkmale zeigt sich, dass vor allem die Resilienz das Belastungserleben der Referendare erklären kann, während die pädagogischen Vorerfahrungen oder die Selbstwirksamkeitserwartungen nur einen geringen Anteil der Belastungswahrnehmung erklären können. Die Belastung in der Ausbildung wird über die Zentralstellung des Leistungsdrucks, der durch die bewerteten Unterrichtsbesuche, Zeitdruck oder auch die Prüfungsbelastung zum Ende der Ausbildung entsteht, maßgeblich bestimmt. Zwischen den Faktoren der Organisation und der Belastungswahrnehmung, wie sie z.B. für die Unterstützung durch die Ausbilder und Mentoren untersucht wurden, konnten nur schwache Zusammenhänge zur Belastung nachgewiesen werden. Die vergleichende Betrachtung von Referendaren und Studierenden im Praxissemester kann Unterschiede im Erleben dieser beiden Ausbildungsabschnitte herausarbeiten. Die berufliche Erfahrung, welche die Referendare den Studierenden voraushaben, wirkt sich, entgegen der Annahme, nicht positiv auf die Belastungswahrnehmung aus: Referendare zeigen sich stärker belastet als Lehramtsstudierende. Bezogen auf die Unterschiede in der Einschätzung der Resilienz sind es wieder die Lehramtsstudierenden, die im Vergleich zu den Referendaren über eine stärkere Widerstandfähigkeit verfügen.
Die vergleichende Betrachtung beider Ausbildungsphasen vermitteln ein besseres Verständnis und eine größere Nähe zum jeweiligen Ausbildungskontext. Die Befunde der Studie deuten auf die Notwendigkeit hin, sich mit Unsicherheiten und Belastungen, die durch die Bewertungssituationen und den Anpassungsdruck an die Erwartungen der Ausbilder und Mentoren entstehen können, stärker zu befassen. An diese Ergebnisse lassen sich Implikationen für die Praxis und mögliche Ansatzpunkte für weitere Forschungsbemühen anschließen.
Die Druckmessung in Tieftemperatur-Vakuumsystemen stellt ein großes messtechnisches Problem dar. Für die in solchen Systemen auftretenden Drücke im UHV und XHV-Bereich werden meist Ionisationsmanometer vom Glühkathodentyp zur Druckmessung verwendet. Diese haben jedoch den entscheidenden Nachteil, dass durch die Verwendung einer Glühkathode zur Erzeugung freier Elektronen eine große Wärmelast in das System eingekoppelt wird. Dies führt zu einer Störung des thermischen Gleichgewichts und damit zu einer Verfälschung der Druckmessung. Weiterhin muss diese zusätzliche Wärmelast abgeführt werden, was vor allem bei kryogenen Vakuumsystemen einen erheblichen Mehraufwand darstellt.
Um dieses Problem zu umgehen, wurde ein Ionisationsmanometer entwickelt, dessen Glühkathode durch eine kalte Elektronenquelle ersetzt wurde. Der verwendete Feldemitter, eine kommerziell erhältliche CNT-Kathode, wurde gegenüber dem Anodengitter einer Extraktormessröhre positioniert. Mit diesem Aufbau wurden die Charakteristika von Kathode und Messröhre sowohl bei Raumtemperatur als auch unter kryogenen Vakuumbedingungen untersucht.
Dabei konnte gezeigt werden, dass die modifizierte Messröhre auch bei einer Umgebungstemperatur von 6 K ohne funktionale Einbußen betrieben werden kann und der gemessene Ionenstrom über mehrere Dekaden linear mit dem von einer Extraktormessröhre mit Glühkathode gemessenen Referenzdruck ansteigt. Des Weiteren konnte gezeigt werden, dass der Extraktor mit CNT-Kathode unter diesen kryogenen Bedingungen deutlich sensitiver auf geringe Druckschwankungen reagiert als sein Äquivalent mit Glühkathode.
Entwicklung von Immunisierungsstrategien zur Induktion hoher funktionaler Antikörperantworten
(2018)
Neuartige Viren und Erreger, die sich antigenetisch tiefgreifend von bekannten Varianten unterscheiden, können verheerende Epidemien auslösen, da weder gegen diese Erreger eine Immunität in der Bevölkerung besteht, noch prophylaktische oder therapeutische Maßnahmen verfügbar sind. Eine prophylaktisch vermittelte Immunität durch Impfung stellt die bei Weitem effektivste Methode zur Vorbeugung viraler Infektionen dar, jedoch sind die Entwicklungs- und Herstellungszeiten eines neuen Impfstoffs in der Regel mit der Ausbruchsdynamik nicht kompatibel. Inzwischen steht zwar eine überschaubare Anzahl antiviraler Medikamente zur Verfügung, doch ist die Wahrscheinlichkeit gering, dass diese meist hoch spezifischen Wirkstoffe gegen neu auftretende Viren aktiv sind. Das beispiellose Ausmaß der Ebola-Epidemie 2014 führte zum Einsatz experimenteller antikörperbasierter Therapien, welche das Potential der passiven Vermittlung von temporärem Immunschutz naiver Personen verdeutlicht. Für viele neuartige Viren ist die Entwicklung von Therapieansätzen allerdings noch nicht entsprechend weit fortgeschritten. Zudem bedingt eine Verwendung des eigentlichen Erregers oft hohe Sicherheitsmaßnahmen, was die Arbeit erschwert. Aus diesem Grund werden Notfalltherapien benötigt, die schnell in klinisch relevanter Qualität und Quantität unter niedrigen biologischen Sicherheitsmaßnahmen produziert werden können.
Diese Arbeit basiert auf der zentralen Hypothese, dass die Induktion von hohen Titern funktioneller Antikörperantworten die Basis für einen breiteren Schutz gegen antigenetisch entferntere Virusstämme sowie für die schnelle Produktion von therapeutischen Antiseren darstellt.
Um diese Hypothese zu testen und Einblicke in verschiedene Aspekte dieses Prozesses zu bekommen, wurde zunächst die Nutzung von Adjuvanzien als Zusätze für Impfstoffe am Beispiel des pandemischen A(H1N1)pdm09-Impfstoffs untersucht. Neben den alljährlichen Epidemien, die von saisonalen Influenza-A-Viren der Subtypen H1N1 oder H2N3 verursacht werden, können neuartige Subtypen zu weltweiten Pandemien führen. Während die saisonalen Influenza-Impfstoffe in der Regel keine Adjuvanzien enthalten, wurden einige pandemische H1N1-Impfstoffe aus 2009 mit einem reduzierten Antigengehalt formuliert und mit squalenbasierten Adjuvanzien kombiniert, um eine ausreichende Wirksamkeit bei größerer Verfügbarkeit zu gewährleisten. Zur Charakterisierung des Effekts dieser Adjuvanzien auf die Immunantworten wurden Frettchen mit 2 µg des kommerziellen H1N1pmd09-Impfstoffes alleine sowie in Kombination mit verschiedenen Adjuvanzien immunisiert, die Antikörpertiter gegen homologe und heterologe Influenzastämme untersucht und mit dem Schutz vor einer Infektion korreliert. Dabei zeigte sich, dass die Verwendung squalenbasierter Adjuvanzien die funktionalen Antikörperantworten um das 100-fache erhöhte und zu einer signifikant reduzierten Viruslast nach der Infektion mit dem homologen pandemischen Virus führte. Während in keiner Gruppe Antikörper gegen die heterologen Hämagglutinin-(HA-)Proteine H3, H5, H7 und H9 nachweisbar waren, induzierten mit squalenbasierten Adjuvanzien kombinierte Impfstoffe subtypenspezifische Antikörper gegen das N1 Neuraminidase-(NA-)Protein einschließlich H5N1. Darüber hinaus führte die Immunisierung mit squalenbasierten Adjuvanzien zu einer besseren Kontrolle der Influenzavirus-Replikation in den oberen Atemwegen.
Anschließend wurde im zweiten Teil dieser Arbeit unter Einbeziehung der gewonnenen Erkenntnisse eine Immunisierungsstrategie zur schnellen Produktion therapeutischer Hyper-immunseren entwickelt, wobei unterschiedliche Antigenexpressionssysteme miteinander verglichen wurden. Während in den frühen Stadien eines Ausbruchs Rekonvaleszenzseren nicht ohne weiteres verfügbar sind, können Antiseren tierischen Ursprungs innerhalb eines kurzen Zeitraums hergestellt werden. Die Herausforderung liegt in der schnellen Induktion einer schützenden Immunität, wobei die effiziente Produktion und Reinigung von Hyperimmunserum in klinisch relevanten Mengen ebenso essenziell ist wie die Anpassungsfähigkeit der Immunisierungsstrategie an neue oder hinsichtlich ihrer Antigenizität veränderte Viren. Hierzu wurden verschiedene Immunisierungsstrategien in Mäusen und Kaninchen verglichen, die unterschiedliche Expressionssysteme für das Modellantigen Ebolavirus-Glykoprotein (EBOV-GP) verwenden: (i) Ebolavirus-ähnliche Partikel (VLP), (ii) das rekombinante modifizierte Vacciniavirus Ankara (MVA) sowie (iii) das rekombinante Virus der vesikulären Stomatitis (VSV). Im Ergebnis induzierte eine dreimalige Immunisierung mit VLPs in Kombination mit squalenhaltigem Adjuvans neutralisierende Antikörpertiter, die vergleichbar mit der Immunisierung mit replikationskompetentem VSVΔG/EBOV-GP waren. Dies deutet darauf hin, dass nicht die De-novo-Antigenexpression, sondern vielmehr die mehrfache Präsentation des Antigens in nativer Konformation für die Produktion von neutralisierenden Antikörpern essenziell ist. Darüber hinaus waren die funktionalen Antikörpertiter aller Kaninchenseren in der In-vitro-Analyse gegen das Wildtypvirus 10- bis 100-fach höher als der Durchschnitt, der in mit VSVΔG/EBOV-GP geimpften Probanden beobachtet wurde. Die Etablierung eines optimierten mehrstufigen Reinigungsverfahrens unter Verwendung einer zweistufigen Ammoniumsulfat-Präzipitation, gefolgt von einer Protein-A-Affinitätschromatographie, führte zu aufgereinigten IgG-Präparationen mit nahezu unveränderter neutralisierender Aktivität, die über neun Tage im xenogenen In-vivo-Modell stabil waren. Die signifikante Erhöhung von totalen und funktionalen Antikörpertitern in Kombination mit einer größeren Breite der Antikörperantwort im Kontext von squalenbasierten Adjuvanzien stützt die Hypothese dieser Arbeit. Adjuvantierte Immunisierungsstrategien sind damit ein vielversprechender Ansatz nicht nur zur Wirksamkeitssteigerung von Subunit- und Proteinimpfstoffen, sondern auch zur schnellen Herstellung von therapeutischen Antiseren.
Um molekulare Mechanismen in biologischen Prozessen zu verstehen, ist es unerlässlich biologisch aktive Verbindungen zu kontrollieren. Dabei spielt besonders die Aktivierung bzw. Desaktivierung von Genabschnitten eine zentrale Rolle in der gegenwärtigen chemischen, biologischen und medizinischen Forschung. Nukleinsäuren sind dabei offenkundige Zielmoleküle, da sie die Genexpression auf unterster Ebene regulieren und auf vielfältige Art und Weise an biologischen Prozessen beteiligt sind. Um solch eine genaue Steuerung zu erreichen, werden Nukleinsäuren häufig photolabil modifiziert und unter die Kontrolle von Licht gebracht. Da hochentwickelte Technologien es erlauben Photonen bestimmter Energie unter präziser räumlicher und zeitlicher Auflösung zu dosieren, ist Licht als nicht invasives Triggersignal ein besonders geeignetes Werkzeug um molekulare Prozesse zu kontrollieren.
Die Verwendung photolabiler Schutzgruppen („cage“) ermöglicht es, diese lichtaktivierbaren Nukleinsäuren („caged compound“) herzustellen. Üblicherweise werden Oligonukleotide damit an funktionsbestimmenden Stellen versehen, woraufhin die Funktion der Oligonukleotide unterdrückt wird. Die biologische Aktivität kann durch Bestrahlung mit Licht wieder hergestellt werden, da die photolabile Schutzgruppe durch den Lichtimpuls abgespalten wird. Neben der zeitweiligen Maskierung der Nukleinsäureaktivität existiert auch eine Methode, die als „photoaktivierbarer Strangbruch“ (‘‘caged strand break‘‘) bezeichnet wird. Dabei werden mit Hilfe von photolabilen Linkern (‘‘Verknüpfer‘‘) lichtinduzierte Strangbrüche in Oligonukleotiden ausgelöst, um so beispielsweise die Struktur eines Nukleinsäurestrangs zu zerstören. Die Idee der photoaktivierbaren Strangbrüche ist nicht neu, dennoch werden photolabile Schutzgruppen überwiegend nach der erstgenannten Strategie verwendet. Im Rahmen dieses Promotionsvorhabens wurden neue photosensitive Linkerbausteine für Oligonukleotide entwickelt und hergestellt, welche sich vor allem im Hinblick auf die Anwendbarkeit in lebenden biologischen Systemen von den bisherigen photolabilen Linkern unterscheiden.
Im ersten Projekt wurde ein nicht-nukleosidischer, photolabiler Linker, basierend auf dem Cumaringrundgerüst, entwickelt. Das Ziel war hier, vor allem, einen zweiphotonenaktiven Linker für biologische Anwendungen und Zweiphotonen-Fragestellungen nutzbar zu machen. Bisherige Zweiphotonen-Linker konnten hauptsächlich nur für Proteinverknüpfungen bzw. Neurotransmitter verwendet werden oder mussten chemisch umständlich (z.B. Click-Chemie) und postsynthetisch in Oligonukleotide eingeführt werden. Der neu entwickelte Zweiphotonen-Linker wurde als Phosphoramiditbaustein für die Oligonukelotid-Festphasensynthese synthetisiert, was einen problemlosen und automatisierten Einbau garantiert. Mit einem modifizierten Oligonukleotid konnten die photochemischen Eigenschaften des Linkers bestimmt und mit Hilfe eines fluoreszenzbasierten Verdrängungsassays und Lasertechniken der Zweiphotonen-Effekt visualisiert werden. Dazu wurde ein Hairpin-DNA-Strang hergestellt, welcher eine Linkermodifikation im Bereich der Loopregion enthält. Durch eine Thiolmodifikation am 5‘-Ende des Oligonukleotidstranges war es möglich, diesen in einem Maleimid-funktionalisierten Hydrogel zu fixieren. Ein DNA-Duplex mit einem Fluorophor/Quencherpaar und einer korrespondierenden Sequenz zum modifizierten Hairpin-Strang wurde ebenfalls dem System zugegeben, allerdings wurde dieser nicht fixiert, um Diffusion zu ermöglichen. Durch die räumliche Nähe des Fluorophors zum Quencher konnte im unbelichteten Zustand zunächst keine Fluoreszenz gemessen werden. Mit einem (Femtosekunden-)gepulsten Laser und dem damit verbundenen Bindungsbruch im Hairpin-Strang durch Zweiphotonen-Effekte wurde es dem fluoreszierenden Strang des DNA-Duplex ermöglicht, sich vom Quencher-Strang zu lösen und an den fixierten Strang zu hybridisieren. Das Photolyse-Ereignis konnte so in ein lokales Fluoreszenzsignal übersetzt und detektiert werden.
Der eindeutige Beweis, dass es sich tatsächlich um ein Zweiphotonen-induziertes Ereignis handelt, konnte durch die dreidimensional aufgelöste Photolyse und über die quadratische Anhängigkeit des Fluoreszenzsignals von der eingestrahlten Laserleistung erbracht werden.
Die generelle Kompatibilität des Cumarin-Linkers mit biologischen Systemen konnte in Zellkulturexperimenten gezeigt werden. Dazu wurde eine Transkriptionsfaktor-DNA Decoy-Strategie entwickelt, in der Linker-modifizierte DNA Decoys an regulatorische Transkriptionsfaktoren binden und diese aber auch photochemisch wieder freisetzen können („catch and release-Strategie“). Zellkulturexperimente, um mit dieser Methode das Transkriptionsfaktor-gesteuerte und endogene Gen für Cyclooxygenase-2 (COX2) zu regulieren, lieferten keine aussagekräftigen Ergebnisse. Daher wurden die verwendeten Zellen dahingehend manipuliert, sodass sie das Protein GFP (grün fluoreszierendes Protein) in Abhängigkeit von der Anwesenheit eines Transkriptionsfaktors exprimieren. Das so durch die Zellen verursachte Fluoreszenzsignal steht in direkter Abhängigkeit zur Decoy-Aktivität. Mit Hilfe modifizierter GFP-Decoys konnte hierbei eine Regulation auf Transkriptionsebene in biologischen Organismen erreicht werden. Mit dem Electrophoretic Mobility Shift Assay (EMSA), einer molekularbiologischen in vitro-Analysetechnik, wurden die Interaktionen zwischen modifizierten Decoys und dem Transkriptionsfaktor untersucht.
...
Etablierung innovativer Strategien zur Resistenzumgehung bei der Therapie des Urothelkarzinoms
(2017)
Patienten mit fortgeschrittenem Blasenkarzinom haben eine sehr schlechte Prognose. Neue Behandlungsansätze, die ihnen eine realistische Heilungschance bieten, sind dringend notwendig. Der Einsatz des mTOR-Inhibitors TEM könnte ein innovatives Lösungskonzept darstellen. Zu berücksichtigen ist jedoch die Gefahr einer Resistenzinduktion unter Langzeitbehandlung. Basierend auf vorausgegangenen Studien wurde im Rahmen der Promotionsarbeit postuliert, dass die Behandlung mit dem HDAC-Inhibitor VPA eine Therapiestrategie darzustellen vermag, mit der durch Tem bedingte Resistenzen umgegangen werden können.
In der vorliegenden Arbeit wurde das biologische Verhalten verschiedener Blasenkarzinomzellen unter chronischer Tem-Therapie studiert und anschließend der Einfluss von VPA auf Wachstum und Proliferation der Zellen (TEM-resistent versus TEM-sensibel) untersucht.
Verwendet wurden die Zelllinien RTT112 und UMUC3. Die Resistenz wurde durch TEM induziert. Das Zellwachstum wurde mit MTT und die Proliferation mittels BrdU-Einbau evaluiert. Mittels Flow-Zytometrie erfolgte die Analyse der Zellzyklusprogression. Relevante Zellzyklusproteine und intrazelluläre Zielproteine wurden mittels Western Blot Verfahren analysiert. siRNA Knock-Down-Studien dienten zur Beurteilung der biologischen Relevanz der Proteine.
Die chronische mTOR-Blockade mit TEM über mehrere Monate hinweg ging mit einer Resistenzinduktion einher, nachgewiesen über eine Verschiebung des IC50-Wertes. VPA bewirkte nicht nur bei den TEM-sensiblen, sondern auch den TEM-resistenten Zellen eine signifikante Wachstums- und Proliferationshemmung. Der Effekt korrelierte mit einer Zunahme von Tumorzellen in der G0/G1-Phase des Zellzyklusses und Abnahme von S-Phase-Zellen. Die G2/M-Phase reduzierte sich in RT112-Kulturen und bei TEM-sensitiven UMUC3-Zellen. Hingegen erhöhte sich der Anteil von TEM-resistenten UMUC3-Kulturen in G2/M. VPA bewirkte bei allen Zellpopulationen Veränderungen an der Cyclin-Cdk-Achse. Insbesondere bei UMUC3-Zellen kam es unter VPA zur Suppression in der Aktivität mTOR-relevanter Signalmoleküle (Rictor, Raptor, Akt, p70S6). In beiden Zelllinien, RT112 und UMUC3, erhöhte sich der Expressionsspiegel der acetylierten Histone H3 und H4. Mittels siRNA wurde belegt, dass die Blockade von Cyclin A und Cdk2 mit einem verminderten Tumorwachstum assoziiert ist.
Aufgrund der vorgestellten Daten lässt sich postulieren, dass die Anwendung von VPA die Gefahr einer durch TEM induzierten Resistenz abzuwenden vermag. Die Ergebnisse der vorliegenden Arbeit präsentieren vielversprechende anti-tumorale Effekte VPAs und stellen möglicherweise eine innovative und effiziente Strategie zur Behandlung des fortgeschrittenen Blasenkarzinoms dar. Da Tem und VPA in der Klinik bereits etabliert sind, wäre eine Umsetzung rasch möglich.
Zur Verifizierung der am in vitro Modell erhobenen Daten sind weitere, vertiefende Untersuchungen am lebenden Organismus essentiell, um die Resistenzphänomene zu belegen.
Im Schulunterricht der deutschen Gymnasien hat die Vermittlung poetologischen Wissens im 19. Jahrhundert einen besonderen Platz eingenommen. Dabei wurde das Gebiet der Poetik jedoch sehr unterschiedlich dargestellt. Zum einen war die Poetik, die Lehre der Dichtkunst, seit dem 18. und während des gesamten 19. Jahrhunderts fortlaufend Veränderungen und Repositionierungen unterworfen. Zum anderen formte und entwickelte sich der moderne Deutschunterricht in dieser Zeit, stark beeinflusst durch die zeitgeschichtlichen Tendenzen der Verwissenschaftlichung, der Fächerdifferenzierung und der Nationalideologien. Als Konstante lässt sich jedoch über das gesamte Jahrhundert hinweg eine hohe Wertschätzung der Poetik als Unterrichtsfach erkennen. Daher wurden von Schulbuchverlagen von Beginn des 19. und bis in die 20er Jahre des folgenden Jahrhunderts hinein didaktische Poetiken veröffentlicht, die eine sehr lange und weite schulische Verwendung fanden.
In der hier vorgelegten Arbeit werden anhand einer Auswahl dieser Schulpoetiken die Grundargumente des Diskurses über Poetik herausgearbeitet und untersucht, wie sich diese im Laufe des Jahrhunderts veränderten. Dadurch wird eine Grundlage dafür geschaffen, das als gültig wahrgenommene Wissen über Form und Wesen der Literatur zu rekonstruieren, das sowohl die Leser aber auch die Schriftsteller beeinflusst hat, die aus den Schülergenerationen zwischen 1830 und 1920 stammen.
Aufgrund einer hohen Inzidenz und einer ungünstigen Prognose stellt die Behandlung von Patienten mit lebermetastasierten kolorektalen Karzinomen eine große Herausforderung in der klinischen Routine dar. Weiterhin sind die chirurgische Resektion und eine systemische Chemotherapie die Standards in der Behandlung dieser Patienten. Allerdings kommen viele Patienten für eine chirurgische Therapie aufgrund einer fortgeschrittenen Lebermetastasierung nicht in Frage. Eine relativ hohe Rezidivrate nach operativer Metastastenentfernung und ein Tumorprogress unter systemischer Chemotherapie stellen ein weiteres Problem dar.
Sind konventionelle Therapien ausgeschöpft, können von Seiten der interventionellen Radiologie eine Reihe minimal-invasiver Therapiemöglichkeiten angeboten werden.
Nach Zugang über die Arteria femoralis superficialis erfolgt bei der transarteriellen Chemoembolisation (TACE) unter angiographischer Kontrolle eine lokale Applikation von Chemotherapeutika und Embolisate in Blutgefäße von Lebermetastasen. Bei der perkutanen thermischen Ablation erfolgt eine Punktion von Lebermetastasen Computertomografie-gesteuert mit nachfolgender Tumordestruktion durch Hitze. Diese beiden Therapieverfahren können auch je nach klinischer Ausgangslage miteinander kombiniert werden.
Die vorliegende Arbeit umfasst 452 Patienten mit nicht-reseziebaren Lebermetastasen kolorektaler Metastasen die sich einer Therapie mittels TACE in 4-wöchigen Intervallen unterzogen. Dabei wurden 233 Patienten palliativ nur mit TACE behandelt, während 219 Patienten neoadjuvant mit TACE behandelt wurden, bevor eine perkutane thermische Ablation, entweder in Form einer Mikrowellenablation oder Laserablation durchgeführt wurde. Für beide Patientengruppen wurden das mediane Gesamtüberleben sowie das progressionsfreie Überleben ab der ersten TACE berechnet. Für beide Überlebenszeiten wurden ferner verschiedene Faktoren getestet, die potentiell eine prognostische Aussagekraft haben. Es wurde auch getestet auf welche Kombination an Chemotherapeutika das beste Ansprechen nach TACE erzielt wird.
Des Weiteren wurden von 34 Patienten gezielt 55 Lebermetastasen mit Diffusions-gewichteter MRT-Bildgebung (DWI) untersucht. Durch Dokumentation eines aus der DWI errechneten ‚apparenten Diffusionskoeffizienten‘ (ADC) wurde getestet ob damit eine Vorhersage über das Therapieansprechen erfolgen kann.
Einen Monat nach der ersten TACE zeigten 7 Metastasen ein Therapieansprechen, wobei kein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit und ohne Therapieansprechen bestand (p=0,94).
Drei Monate nach der ersten TACE zeigten 17 Metastasen ein Therapieansprechen. Es bestand ein signifikanter Unterschied zwischen absoluten prätherapeutischen ADC Werten von Metastasen mit (median 1,08x10-3mm²/s) und ohne Therapieansprechen (median 1,30x10-3mm²/s). Dabei zeigten prätherapeutische ADC Werte einen mäßigen Vorhersagewert für das Therapieansprechen (AUC 0,7).
Bei Metastasen die ein Therapieansprechen nach 3 Monaten zeigten wurde ein signifikanter Anstieg von ADC Werten beobachtet (p<0,001).
Mit einer Sensitivität von 77% und einer Spezifität von 74% konnte ein Ansprechen nach drei TACE Sitzungen vorhergesagt werden, wenn es zu einem Anstieg der ADC Werte um 12,17% kam (AUC 0,817). Zudem wurde eine starke und signifikante Korrelation zwischen dem prozentualen Anstieg der ADC Werte und einer prozentualen Größenänderung der Lebermetastasen beobachtet werden (r=0,651, p<0,001).
Die palliativ mit TACE behandelten Patienten zeigten ein Gesamtüberleben von 12,6 Monaten und ein progressionsfreies Überleben von 5,9 Monaten. Dagegen lag das Gesamtüberleben und das progressionsfreie Überleben der neoadjuvant behandelten Patienten mit folgender thermischen Ablation bei 25,8 und 10,8 Monaten.
Die Unterschiede im Gesamtüberleben und progressionsfreien Überleben zwischen den beiden Gruppen waren statistisch signifikant (p<0,001).
Extrahepatische Metastasten vor Therapie mit TACE waren ein signifikanter prognostischer Einflussfaktor in der Überlebensanalyse der neoadjuvant und palliativ therapierten Gruppe. Anzahl, Größe und Lokalisation waren ferner signifikante Faktoren für das Gesamtüberleben und progressionsfreie Überleben der neoadjuvanten Kohorte. Geschlecht, Lokalisation des Primärtumors, T- und N- Stadien des TNM-Klassifikationssystem des Primärtumors, zeitliches Auftreten der Lebermetastasen, Ablationsmethode und Patientenalter hatten keinen Einfluss auf das Überleben in beiden Kohorten. Das beste Ansprechen auf TACE wurde bei einer Verwendung einer Dreifachkombination von Chemotherapeutika beobachtet (p=0,021).
Zusammenfassend zeigt die Arbeit, dass die TACE eine effektive Therapie bei Lebermetastasen kolorektaler Karzinome darstellt. Eine Messung von ADC Werten erscheint ein potentieller Biomaker für das Ansprechen von Lebermetastasen zu sein.
Hintergrund: Obgleich die Carotisstentimplantation inzwischen eine etablierte Alternative zur Carotisendarterektomie geworden ist, existieren jedoch nur wenige Studien über Langzeitergebnisse nach Carotisstentimplantation.
Methoden: Zwischen Juli 1993 und August 2005 wurden fortlaufend alle Patienten nach einseitiger Carotisstentimplantation in diese Studie eingeschlossen, welche keine signifikante kontralaterale Stenose hatten. Eine Follow-up Untersuchung mittels Duplexsonographie und/oder Angiographie sowie eine neurologische Untersuchung erfolgten nach sechs und/oder zwölf Monaten. Danach wurden jährlich Fragebogen an die Patienten beziehungsweise den zuständigen Hausarzt verschickt.
Ergebnisse: Eine Carotisstentimplantation erfolgte bei 279 Patienten. In 99% der Eingriffe war die Stentimplantation erfolgreich. Die periprozedurale major und minor Schlaganfallrate lag bei 2.2%. Die periprozedurale major stroke oder Todesrate lag bei 2.9%. Im Median betrug die klinische Follow-up Zeit 49 ± 32 Monate (Spannbreite: 30 Tage bis 12.1 Jahre). Ausgenommen perioperativer (<30 Tagen) Ereignisse, lag die jährliche major und minor Schlaganfallrate bei 1.3% und die jährliche ipsilaterale major und minor Schlaganfallrate bei 0.6%. Bei den symptomatischen und asymptomatischen Patienten betrugen die jährliche major und minor Schlaganfallraten 2.2% und 0.8% und die ipsilaterale major und minor Schlaganfallraten lagen bei 1.1% und 0.3%. Im Hinblick auf die Langzeitergebnisse gab es keinen signifikanten Unterschied zwischen den ipsilateralen und kontralateralen Schlaganfallraten. Bezüglich der Restenosen zeigte sich im sonographischen Follow-up (innerhalb 36 ± 32 Monaten) eine Rate für symptomatische Stenosen von 5% und für asymptomatische Stenosen von 3%.
Schlussfolgerung: Unsere Studie zeigt eine sehr niedrige cerebrale Langzeitereignisrate nach Carotisstentimplantation. Die Sicherheit dieses Verfahrens konnte somit auch über einen langen Zeitraum bekräftig werden. Erwähnenswert ist hierbei, dass es keinen signifikanten Unterschied zwischen den Langzeitergebnissen von ipsilateralen und kontralateralen cerebralen Ereignissen gab, was die Hypothese der Plaque Stabilisation nach Carotisstentimplantation bestärkt.
Im Rahmen dieser Arbeit wurden sRNAs des halophilen Archaeons Haloferax volcanii hinsichtlich ihrer biologischen und ihrer regulatorischen Funktion charakterisiert.
Um einen Überblick über die biologischen Funktionen archaealer sRNAs zu erhalten, wurde eine umfassende phänotypische Charakterisierung von 27 sRNA-Deletionsmutanten im Vergleich zum Wildtyp ausgewertet. Im Zuge dieser phänotypischen Charakterisierungen wurden zehn verschiedene Wachstumsbedingungen, morphologische Unterschiede und Veränderungen in der Zellmotilität untersucht. Hierbei zeigten nahezu alle Deletionsmutanten unter mindestens einer der getesteten Bedingungen phänotypische Unterschiede. Durch den Verlust von sRNAs wurden sowohl sogenannte Gain-of-function als auch Loss-of-function Phänotypen beobachtet. Haloarchaeale sRNAs spielen eine wichtige Rolle beim Wachstum mit verschiedenen Salzkonzentrationen, mit verschiedenen Kohlenstoffquellen und beim Schwärmverhalten, sind jedoch weniger in die Adaptation an diverse Stressbedingungen involviert.
Zur näheren Charakterisierung der regulatorischen Funktion archaealer sRNAs wurden sRNA362, sRNAhtsf468 und sRNA479 mittels molekulargenetischer Methoden wie Northern Blot-Analyse und DNA-Mikroarray sowie bioinformatischer in silico-Analyse untersucht. Das Expressionslevel von sRNA362 konnte bestimmt und potentielle Zielgene für sRNAhtsf468 und sRNA479 identifiziert werden.
Eine vorangegangene Studie zeigte den Einfluss von sRNA30 unter Hitzestress und führte zur Identifikation differentiell produzierter Proteine in Abwesenheit der sRNA. In dieser Arbeit wurde mittels Northern Blot-Analysen die Expression der sRNA30 charakterisiert. Das Wachstum in An- und Abwesenheit von sRNA30 wurde bei 42°C und 51°C phänotypisch charakterisiert und der regulatorische Einfluss der sRNA auf die mRNA differentiell regulierter Proteine durch Northern Blot-Analyse überprüft. Eine Transkriptomanalyse mittels DNA-Mikroarray nach Hitzeschock-Induktion führte zur Identifikation differentiell regulierter Gene involviert in Transportprozesse, Metabolismus, Transkriptionsregulation und die Expression anderer sRNAs. Die differentielle Regulation des Proteoms nach Hitzeschockinduktion in An- und Abwesenheit von sRNA30 konnte bestätigt werden.
Desweiteren wurde in dieser Arbeit sRNA132 und deren phosphatabhängige Regulation der Ziel-mRNA HVO_A0477-80 näher charakterisiert. Eine Induktionskinetik nach Phosphatentzug bestätigte die Bedeutung von sRNA132 für die verstärkte Expression des Operons HVO_A0477-80 unter Phosphatmangel-Bedingungen und verwies auf die Existenz weiterer Regulationsmechanismen. Während vor und nach Phosphatentzug kein Unterschied bezüglich der Zellmorphologie von Wildtyp und Deletionsmutante zu erkennen war, führte das Wachstum mit einem starken Phosphatüberschuss von 5 mM zu einer Zellverlängerung der Deletionsmutante. Die Kompetition der nativen 3‘-UTR des Operons HVO_A0477-80 mit einer Vektor-kodierten artifiziellen 3‘-UTR legt eine Regulation über die Bindung von sRNA132 an die 3‘-UTR nahe. Der Transkriptomvergleich nach Phosphatentzug in An- und Abwesenheit von sRNA132 führte zur Identifikation des Phosphoregulons der sRNA. Zu diesem Phosphoregulon gehören unter anderem zwei Glycerinphosphat-Dehydrogenasen, Transkriptionsregulatoren, eine Polyphosphatkinase und eine Glycerolphosphodiesterase. Zudem waren die Transkriptlevel der beiden ABC-Transporter HVO_A0477-80 und HVO_2375-8 für anorganisches Phosphat und des Transporters HVO_B0292-5 für Glycerinaldehyd-3-Phosphat in Abwesenheit der sRNA verringert. Die beiden ABC-Transportsysteme für anorganisches Phosphat wurden im Rahmen dieser Arbeit deletiert und weiter charakterisiert. Es konnte gezeigt werden, dass das ABC-Transportsystem HVO_2375-8 bei geringen Phosphatkonzentrationen leicht induziert wird und das Transkriptlevel in Anwesenheit von sRNA132 erhöht ist. Wachstumsversuche der jeweiligen Deletionsmutante in direkter Konkurrenz mit dem Wildtyp zeigten, dass keiner der beiden ABC-Transporter den anderen vollständig ersetzen kann und der Wildtyp mit beiden intakten ABC-Transportern unter phosphatlimitierenden Bedingungen einen Wachstumsvorteil besitzt. In silico-Analysen der Promotorbereiche von sRNA und ABC-Transporter legen zudem die Existenz von P-Boxen nahe.
Photolabile Schutzgruppen haben sich im Laufe der letzten Jahre als wertvolle Werkzeuge für die Untersuchung und Regulation biologischer Prozesse etabliert. Dabei wird die photolabile Schutzgruppe auf geeignete Weise mit Biomolekülen verknüpft, sodass deren Funktion temporär deaktiviert wird. Durch Bestrahlen mit Licht geeigneter Wellenlängen wird die photolabile Schutzgruppe entfernt und die Aktivität des Biomoleküls bzw. des zu beobachtenden Prozesses wiederhergestellt. Die Grundlagen der Verwendung photolabiler Schutzgruppen im biologischen Kontext wurden in zwei Pionierarbeiten 1977 von J.W. ENGELS und 1978 von J.F. HOFFMAN gelegt. Davon ausgehend haben sich zahlreiche Anwendungen photolabiler Schutzgruppen für biologisch interessante Molekülklassen entwickelt. Auf dem speziellen Gebiet der Nukleinsäuren wurden in den letzten Jahren einige fundamentale Mechanismen entdeckt und aufgeklärt, die nicht zuletzt auch therapeutisch interessante Anwendungsmöglichkeiten für photolabile Schutzgruppen bieten. Hierbei stellt das An-/Aus-Schaltverhalten von Nukleinsäuren jedoch ein nicht-triviales Problem dar. Selbst der gezielte Einbau einer einzelnen photolabilen Schutzgruppe in ein multifunktionales Oligonukleotid führt in der Regel nämlich nicht zu einer vollständigen Deaktivierung dessen. Ein multipler Einbau photolabiler Schutzgruppen entlang der Sequenz eines funktionellen Oligonukleotids schaltet die Hintergrundaktivität im deaktivierten Zustand zwar vollständig aus, allerdings müssen in diesem Fall hohe Bestrahlungsintensitäten bzw. –dauern für das Entfernen aller photolabilen Modifikationen angewendet werden. Dadurch geht zum einen die Zeitauflösung der lichtgeschalteten Prozesse verloren, nicht zuletzt erhöht sich dabei aber auch das Risiko von lichtinduzierten Schäden am biologischen System. Das Kernthema der vorliegenden Dissertation war es daher, neue Architekturen für den Aufbau photoaktivierbarer Oligonukleotide zu entwickeln.
Das erste große Projekt basierte auf der Annahme, dass sich Duplexstrukturen, die für die Funktion vieler Nukleinsäuremechanismen fundamental sind, durch Zyklisierung von Oligonukleotiden global destabilisieren und damit effizienter photoaktivieren lassen, als durch lokalen Einbau einzelner photolabiler Schutzgruppen in Oligonukleotide. Hierzu wurden geeignete Alkin-Modifikationen an photolabile Nitrobenzyl- und Cumarin-Schutzgruppen angebracht und diese an die Nukleobasen verschiedener DNA-Bausteine geknüpft. Es ist daraufhin gelungen, Oligonukleotide mit je zwei photolabilen Alkin-Modifikationen herzustellen und diese intrasequentiell über eine Cu(I)-katalysierte Click-Reaktion mit einem Bisazid-Linker zu zyklisieren. Die so erhaltenen Oligonukleotide wiesen dramatisch erniedrigte Schmelzpunkte gegenüber den nativen Duplexen, sowie gegenüber den zweifach photolabil geschützten Oligonukleotiden auf. Dabei wurde außerdem festgestellt, dass Zyklisierungsparameter wie die Linkerlänge, -polarität und –flexibilität und die Wahl der photolabilen Schutzgruppe keinen signifikanten Einfluss auf die Duplexstabilität hat. Über einen Bereich von Ringgrößen zwischen ca. 11-21 Nukleotiden wurden die niedrigsten Duplexstabilitäten beobachtet. Sehr kleine, sowie große Ringe ab 30 Nukleotiden wiesen dagegen höhere Stabilität auf.
Da mit dem entwickelten Zyklisierungskonzept auch mehrere Ringstrukturen innerhalb einer Oligonukleotidsequenz aufgebaut werden können, wurde im nächsten Schritt eine photoaktivierbare Variante des C10-Aptamers hergestellt, welches selektiv gegen Burkitt’s Lymphomzellen bindet. Dieses 90-mer DNA-Oligonukleotid wurde an drei Stellen photolabil Alkin-modifiziert und infolge mit einem Trisazid-Linker zu einer bizyklisierten Struktur verknotet. Mit Hilfe von Fluoreszenzmikroskopie-Experimenten konnte demonstriert werden, dass das durch eine solche „Photo-Klammer“ deaktivierte C10-Aptamer keine Bindungsaffinität gegenüber Burkitt’s Lymphomzellen aufweist, die Bindungsaktivität jedoch nach Belichten wiederhergestellt werden kann. Mit Atomkraftmikroskopie-Experimenten ist es darüber hinaus gelungen, die Photoaktivierung des verknäuelten C10-Aptamers mit molekularer Auflösung abzubilden. Mit diesem Ergebnis können nun lange funktionelle Oligonukleotide auf definierte Weise photoaktivierbar gestaltet werden, insbesondere auch dann, wenn keine (Informationen über) funktionelle Sekundärstrukturen existieren.
...
Die Forschungsarbeit leistet einen kriminologischen Beitrag zur Systematisierung des Phänomens der sekundären Viktimisierung bei Opfern sexualisierter Gewalt und zeigt gleichzeitig Präventionsansätze auf, die sekundäre Viktimisierung verhindern sollen.
„Sekundäre Viktimisierung“ als die sogenannte „zweite Opferwerdung“ durch soziale Fehlreaktionen einzelner Personen oder gesellschaftlicher Gruppen sowie die Prävention dieses Phänomens ist im Detail noch wenig erforscht. Der Fokus des Forschungs- und Erkenntnisinteresses richtet sich auf die Zielgruppe der Opfer sexualisierter Gewalt, die in ihrer Kindheit sexuell missbraucht und als Erwachsene sekundär viktimisiert wurden. Es wird angenommen, dass Sexualstraftaten, die von den Opfern im Kindesalter erlitten werden, in besonderem Maße die persönliche Unversehrtheit verletzen und dass somit eine zusätzliche sekundäre Viktimisierung als besonders belastend empfunden wird.
Zunächst wird im theoretischen Teil auf wesentliche Begriffe wie sexualisierte Gewalt in Verbindung mit primärer und sekundärer Viktimisierung eingegangen und nimmt deren kriminologische Einordnung vor, stellt das Ausmaß sowie die Spezifika des Phänomens in den Fokus. Dabei wird zunächst der Opferbegriff ausführlich diskutiert, wobei der Opferperspektive viel Raum gegeben wird. Ein weiterer Schwerpunkt liegt auf der Darstellung des aktuellen Forschungsstandes zur sekundären Viktimisierung, insbesondere mit Bezug zu sexualisierter Gewalt.
Im Zentrum des qualitativen Forschungsansatzes stehen folgende Fragen: „Welche Strukturen prägen die Situationen sekundärer Viktimisierung?“ und „Wie ist Prävention von sekundärer Viktimisierung möglich?“. Auf der Grundlage der Forschungsergebnisse wurde ein Präventionskonzept mit praxisorientierten Empfehlungen entwickelt. Zunächst sind typische Strukturen sekundärer Viktimisierung analysiert und in einem Modell verdeutlicht worden. Es ist zu unterscheiden zwischen Strukturen, die sekundäre Viktimisierung begünstigen (Risikofaktoren) sowie Strukturen, die sekundärer Viktimisierung vorbeugen (Schutzfaktoren). Anhand der identifizierten Schutzfaktoren entstand das Modell zur Prävention sekundärer Viktimisierung, aus denen konkrete Präventionsansätze abzuleiten sind.
Hervorgehoben wird die kriminologische Orientierung der Arbeit; wenngleich die Kriminologie interdisziplinär einzuordnen ist, dominiert bei der Analyse die kriminalsoziologische Verortung und speziell die viktimologische Ausrichtung.
Das Ziel der vorliegenden publikationsbasierten Dissertation liegt darin, ein Erhebungskonzept zu entwickeln, das es erlaubt, ICT-Skills – das heißt Fertigkeiten für das Lösen von Aufgaben in einer Informations- und Kommunikationstechnologie-Umgebung – theoretisch fundiert zu erheben sowie die Validität der intendierten Testwerteinterpretation empirisch zu untersuchen. Die Testwerte sollen als ICT-spezifische Fertigkeiten höherer Ordnung interpretiert werden.
Für die Erfassung von ICT-Skills kann auf keine lange Forschungstradition zurückgegriffen werden. Daher ist es das Ziel der ersten Arbeit, eine Rahmenkonzeption zur Messung von ICT-Skills zu erstellen. Dabei werden drei Ziele verfolgt: Erstens soll für die Itementwicklung spezifiziert werden, auf welchen generischen und ICT spezifischen Fertigkeiten ICT-Skills basieren. Mithilfe etablierter psychologischer Theorien aus den relevanten Fertigkeitsbereichen werden kognitive Schwierigkeiten bei der Bewältigung von ICT-Aufgaben beschrieben, die als Grundlage für die Entwicklung der Items dienen. Zweitens werden für die Implementierung der Items Rationale für deren Erstellung in einer simulationsbasierten Umgebung formuliert, die es erlauben sollen, die intendierten kognitiven Prozesse realitätsnah in den Items abzubilden. Obgleich diese Arbeit einen konzeptionellen Fokus hat, besteht das dritte Ziel darin, die Rahmenkonzeption empirisch zu erproben, um zu beurteilen, ob die Rahmenkonzeption zur Itementwicklung und -implementierung geeignet war.
Aus der Rahmenkonzeption, die ein breites Spektrum relevanter ICT-Aufgaben für die Erfassung sowie eine simulationsbasierte Erhebung vorsieht, resultieren sehr heterogene Items. Deshalb unterscheiden sich ICT-Skills-Items von eher homogenen Itempools, wie sie typischerweise zur Erfassung von Konstrukten der psychologischen Leistungsdiagnostik, etwa zur Intelligenzdiagnostik, verwendet werden. Aus diesem Grund ist für die Konstruktvalidierung der Testwerteinterpretation, die das Ziel der zweiten und dritten Arbeit darstellt, zunächst konzeptionelle Forschungsarbeit nötig, um angemessene Validierungsstrategien für heterogene Items zu entwickeln. Diese in der zweiten und dritten Arbeit erforderlichen konzeptionellen Beiträge bedingen die Struktur dieses Rahmentextes, in dem zunächst die konzeptionellen Beiträge aller drei Arbeiten vorgestellt und anschließend alle empirischen Ergebnisse berichtet werden. Die konzeptionellen Entwicklungen für die Validierung der intendierten Interpretation der Testwerte orientieren sich an Vorgehensweisen der psychologischen Leistungsdiagnostik, der nomothetischen Spanne und der Konstruktrepräsentation (vgl. Embretson, 1983). Mit diesen wird untersucht, inwiefern sich die zentralen Annahmen der Rahmenkonzeption aus der ersten Arbeit, nämlich die bei der Aufgabenlösung involvierten Fertigkeiten und kognitiven Prozesse, in den Testwerten widerspiegeln.
Das Ziel der zweiten Arbeit besteht darin, die nomothetische Spanne von ICT-Skills zu untersuchen und den postulierten Zusammenhang mit generischen und ICT-spezifischen Fertigkeiten empirisch zu untersuchen. Neben dem klassischen Ansatz, der Zusammenhänge über alle Items hinweg betrachtet, wird das Zusammenspiel verschiedener Fertigkeiten auch auf Itemebene analysiert. Darüber hinaus sollen potentielle Variationen in den Zusammenhängen über die sehr heterogenen Items durch Merkmale erklärt werden, welche für diese Heterogenität bezeichnend sind. Die empirischen Ergebnisse dienen – basierend auf den in der Rahmenkonzeption definierten Fertigkeiten – als Evidenzen für die Validität der Testwerteinterpretation.
Das Ziel der dritten Arbeit ist es, die Konstruktrepräsentation zu untersuchen, indem Evidenzen für die intendierten kognitiven Prozesse in der Itembearbeitung gesammelt werden. Klassischerweise werden in homogenen Itempools Itemmerkmale zwischen Items verglichen und wenn möglich quantifiziert, um die Schwierigkeit in Items zu beschreiben. Da die Items sehr heterogen sind, wurden zwei experimentelle Ansätze entwickelt, die diese kognitiven Prozesse in Itemvarianten verändern oder eliminieren. Die Auswirkungen dieser Manipulationen werden in Bezug auf die Itemschwierigkeit und den Zusammenhang mit anderen Konstrukten untersucht. Verändert werden die in der Rahmenkonzeption abgeleiteten schwierigkeitsdeterminierenden Merkmale, um zu untermauern, dass die ICT Skills Items ICT-spezifische Fertigkeiten erfordern. Eliminiert werden alle Merkmale die Fertigkeiten höherer Ordnung erfordern sollten. Mit diesen experimentellen Strategien können die zentralen Punkte der intendierten Testwerteinterpretation untersucht werden.
Neben den empirischen Ergebnissen zur Untermauerung der intendierten Testwerteinterpretation für den entwickelten ICT-Skills-Test ist der Erkenntnisgewinn dieser Arbeit auch in den konzeptionellen Beiträgen zu sehen. Mit diesen wurde exemplarisch gezeigt, wie ein Konstrukt wie ICT-Skills erfasst werden kann, indem man sich an den Vorgehensweisen der psychologischen Leistungsdiagnostik orientiert und dabei auf Annahmen kognitiver Prozesse zurückgreift.