Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Einleitung: Die chronische Hepatitis C gehört zu den häufigen Ursachen einer Leberzirrhose. Durch die Entwicklung von direkt antiviralen Medikamenten (direct acting antiviral agent, DAA) können Heilungsraten von über 90% bei chronischer Hepatitis C erreicht werden. Der Einfluss des Therapieerfolgs auf Fibroseregression und portale Hypertension ist insbesondere für Patienten mit Leberzirrhose bisher nicht ausreichend geklärt. Elastographische Messungen von Leber und Milz können als Surrogatmarker zur nicht-invasiven Evaluation von Fibroseregression und Rückgang von portaler Hypertension dienen. Ziel der vorliegenden Arbeit war die Evaluation der Dynamik von Leberfibrose und portaler Hypertension mittels transienter Elastographie der Leber (L-TE) und Acoustic Radiation Force Impulse Elastographie von Leber (L-ARFI) und Milz (M-ARFI) bei Patienten mit DAA-induziertem anhaltendem virologischen Ansprechen (sustained virological response, SVR) und Hepatitis C Virus (HCV) assoziierter Leberzirrhose.
Patienten und Methoden: In dieser prospektiven, monozentrischen Studie wurden Daten von 56 Patienten mit chronischer Hepatitis C und assoziierter Leberzirrhose analysiert, die eine SVR nach 12-24 Wochen antiviraler Hepatitis C Therapie mit DAA's erreichten. Dabei wurden zu vier Zeitpunkten (Therapiebeginn [BL], Therapieende [EOT], 24 Wochen nach Therapieende [FU24] und 48 Wochen nach Therapieende [FU48]) Messungen vorgenommen. Zusätzlich wurden Leberzirrhose assoziierte Scores und Komplikationen sowie Laborparameter erhoben.
Ergebnisse: Die elastographischen Messungen der Leber zeigten signifikante Verbesserungen im Studienverlauf, am stärksten während der antiviralen Therapie. Im L-TE zeigten sich Verbesserungen zwischen BL [Median(Min-Max), 32,45(9,1-75)kPa] und FU48[Median (Min-Max), 17,1 (3,7-59,3) kPa] (p<0,0001) und im L-ARFI zwischen BL [Median (Min-Max), 2,7 (1,2-4,1) m/s] und FU24 [Median (Min-Max), 2,5 (1,2-3,9)m/s (p=0,011), wobei signifikante Verbesserungen (≥30%) bei 35/49 (71%) Patienten im L-TE und bei 6/55 (11%) im L-ARFI auftraten. Die M-ARFI Messungen als Korrelat der portalen Hypertension, zeigten kaum Veränderungen. Die medianen Werte blieben zwischen BL [Median (Min-Max), 3,4 (1,9-4,3) m/s] und FU48 [Median (Min-Max), 3,4(2-4,4) m/s] konstant (p=0,9). Nur 2/54 (4%) der Patentien zeigten signifikante Verbesserungen. In der univariaten Analyse zeigten sich 65 als positive Einflussfaktoren der L-TE- und L-ARFI-Verbesserung ein MELD Score bis 10 sowie ein BMI bis 30 kg/m².
Diskussion und Schlussfolgerung: In Zusammenschau der Ergebnisse kann bei einem Teil der Patienten von einer Fibroseregression und dem Rückgang der portalen Hypertension nach DAA-basierter, interferon-freier antiviraler Therapie ausgegangen werden. Die mittels L-ARFI und L-TE gemessene Verbesserung der Lebersteifigkeit unter antiviraler Therapie scheint auf einer Verbesserung von Nekroinflammation und Leberfibrose zu basieren. Bei Nichtbeachtung des Einflusses der Nekroinflammation auf nicht-invasive Messungen der Lebersteifigkeit kann es zur Überschätzung der Fibroseregression nach SVR kommen. Da es sich bei der Zirrhose- bzw. Fibroseregression anscheinend um einen langsamen Prozess handelt, sind ausreichend lange Nachbeobachtungszeiten in entsprechenden Studien zu fordern. Für die mit einer Leberzirrhose assoziierte portale Hypertension gelten ähnliche Überlegungen.
Die Abstrahlung von internen Schwerewellen in atmosphärischen Strahlströmen und Temperaturfronten trägt vermutlich mit einem signifikanten Beitrag zum gesamten Schwerewellenspektrum bei. Das physikalische Verständnis der dabei ablaufenden Prozesse ist derzeit allerdings noch zu gering ausgeprägt, um eine adäquate mathematische Darstellung für operationelle Wetter- und Klimamodelle zu entwickeln. In dieser Arbeit wird der Mechanismus dieser Schwerewellenquelle in numerischen Simulationen des differenziell geheizten rotierenden Annulusexperiments erforscht. Dieses Experiment besitzt eine im Vergleich zur Atmosphäre deutlich verringerte Anzahl an Freiheitsgraden und eignet sich besonders gut zum Studium der Dynamik der mittleren Breiten. Analoge Untersuchungen werden in einem äquivalenten kartesischen Modellsystem vorgenommen, in dem periodische Bedingungen in den beiden horizontalen Raumrichtungen vorliegen.
Im Gegensatz zur Annuluskonfiguration, in der nachweislich auch eine Schwerwellenabstrahlung an den Zylinderwänden erfolgt, kommt in dieser Konfiguration nur die interne Dynamik als Schwerewellenquelle in Frage. Die nichtlinearen Simulationen beider Modellkonfigurationen zeigen eine großskalige barokline Wellenstruktur, die ein atmosphärenähnliches Jet-Front System beinhaltet. Darin eingelagert werden vier voneinander isolierte Schwerewellenpakete in der Annuluskonfiguration sowie zwei Schwerewellenpakete im doppeltperiodischen Modellsystem charakterisiert. Um den zugrundeliegenden Quellmechanismus zu untersuchen, erfolgt eine Aufspaltung der Zustandsvariablen in einen balancierten und einen unbalancierten Anteil, wobei erstgenannter das geostrophische und hydrostatische Gleichgewicht erfüllt und letztgenannter das Schwerewellensignal enthält. Die Strömungsaufspaltung bildet die Grundlage für die Entwicklung eines tangential-linearen Modells für den unbalancierten Strömungsanteil. Hierbei wird eine systematische Umformulierung der dynamischen Grundgleichungen hinsichtlich der Wechselwirkung beider Strömungsanteile vollzogen. Insbesondere wird der rein balancierte Antrieb der unbalancierten Strömung freigelegt, um dessen Einfluss auf die Schwerewellenaktivität zu quantifizieren. Die anschließenden tangential-linearen Simulationen zeigen, dass drei der vier Schwerewellenpakete in der Annuluskonfiguration in der internen Strömung generiert werden. Ein verbleibendes Wellenpaket entsteht an der inneren Zylinderwand, ehe es in das innere Modellvolumen propagiert. Darüber hinaus wird deutlich, dass der rein balancierte interne Antrieb der Schwerewellen einen signifikanten Beitrag zur Schwerewellengenerierung leistet. Im doppeltperiodischen Modellsystem gibt es eine nahezu perfekte Übereinstimmung zwischen den unbalancierten Strömungsmustern in den tangential-linearen und den nichtlinearen Simulationen. Auch dort nimmt der balancierte Antrieb eine zentrale Rolle bei der Schwerewellenabstrahlung ein. Die abschließende Gegenüberstellung verschiedener, voneinander unabhängiger Gleichgewichtskonzepte macht deutlich, dass die balancierte Strömung der führenden Ordnung in der Rossbyzahl bereits eine erstaunliche Übereinstimmung mit der vollen Strömung liefert. Zudem erbringt die Anwendung einer Lagrange'schen Filtermethode den Nachweis, dass die Vertikalbewegungen und die horizontalen Divergenzsignale in der Annuluskonfiguration fast ausschließlich auf die Schwerewellenaktivität zurückzuführen sind.
Zur Unterstützung von Lehrkräften bei der Auswahl eines Sachunterrichtsschulbuchs im Hinblick auf die didaktische Aufbereitung physikalischer Themen wurde ein bereits bestehendes und in der Schweiz eingesetztes Schulbuchraster weiterentwickelt. Die ergänzenden Bewertungskriterien berücksichtigen, inwieweit die Schulbücher physikalische Inhalte in einer Weise präsentieren, dass a) häufige Präkonzepte der Schülerinnen und Schüler aufgegriffen, b) Inhalte strukturiert dargestellt werden, c) multiple externe Repräsentationen zum Einsatz kommen, d) Selbsterklärungen angeregt wie auch e) offene Schülerexperimente angeboten werden. Zudem sollten f) für die Lehrkräfte Zusatzmaterialen mit fachwissenschaftlichen und fachdidaktischen Erläuterungen zur Verfügungen stehen. Ergänzende Erläuterungen der Rasterkriterien sollen eine möglichst objektive Beurteilung unterstützen. Anhand dieses weiterentwickelten Rasters wurden exemplarisch die 2017 in Hessen zugelassenen Sachunterrichtsschulbücher analysiert.
Auf Knopfdruck geht es sekundenschnell in die Tiefe. Als sich die Aufzugstür drei Stockwerke unter der Erde öffnet, tauchen im Licht von Neonröhren unendlich lang erscheinende Regale auf. Viele sind vollgestellt mit Büchern. Andere warten darauf, dass sich ihre Reihen noch füllen. Etwa 2,7 Millionen Bände lagern in unterirdischen Magazinen der Universitätsbibliothek (UB) Johann Christian Senckenberg am Campus Bockenheim. Der Name UB umfasst zum einen die Zentralbibliothek (ZB) am Campus Bockenheim, zum anderen die fünf Bereichsbibliotheken Naturwissenschaften, Recht und Wirtschaft, Sozialwissenschaften und Psychologie, Geisteswissenschaften sowie Medizin.
Martin Luthers theologische Idee der Unterscheidung von Gnade/Evangelium und Gesetz/Vernunft, Glauben/Unglauben und Werk, schränkte die Zweiwertigkeitslogik des Aristoteles auf die Gestaltung der Existenz ein und erwies ihre Ungültigkeit für die Erfassung des Grundes der Existenz. Während Luther die dialektische Struktur der Beziehung von Gestaltung und Grund der Existenz in der Form der o.g. Vorstellung zum Ausdruck brachte, hat G.W.F. Hegel sie auf den Begriff gebracht und damit Luthers Theologie in die Philosophie transformiert.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.