Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2867)
- Article (2263)
- Contribution to a Periodical (2161)
- Book (1979)
- Doctoral Thesis (1725)
- Review (926)
- Report (608)
- Working Paper (440)
- Part of a Book (196)
- Conference Proceeding (176)
Language
- German (13875) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (38)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (5008)
- Medizin (1479)
- Gesellschaftswissenschaften (1062)
- Rechtswissenschaft (742)
- Neuere Philologien (650)
- Wirtschaftswissenschaften (639)
- Geschichtswissenschaften (630)
- Biochemie und Chemie (542)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (523)
- Kulturwissenschaften (465)
Gutartige Schilddrüsenknoten stellen ein häufiges klinisches Problem dar, bei dem minimalinvasive, thermoablative Therapien wie die Radiofrequenzablation (RFA), als Alternative zur chirurgischen Behandlung, immer relevanter werden. Da es sich bei den Beschwerden oftmals um Symptome handelt, die von der lokalen Raumforderung und Größe abhängen, ist die Reduktion des Knotenvolumens ein zentraler Bestandteil der Therapie. Hierbei stellt die bipolare RFA eine neuartige Technologie zur minimalinvasiven Behandlung von gutartigen Schilddrüsenknoten dar und soll die Nachteile der monopolaren RFA, die das bislang am häufigsten verwendete System darstellt, überwinden. Jedoch gibt es aktuell keine offiziellen Leitlinien bezüglich der zu verwendenden Ablationstechnik. Aus diesem Grund war die Zielrichtung dieser Arbeit, erstmalig die Behandlung gutartiger Schilddrüsenknoten mittels bipolarer RFA in Kombination mit der sogenannten multiple overlapping shot technique („MOST“) anhand der Volumenreduktion nach 3 Monaten zu untersuchen. Hierzu wurden 18 Patienten (4 männliche, 14 weibliche Patienten; mittleres Alter: 50 Jahre, Altersspannweite: 15–72 Jahre) mit insgesamt 20 gutartigen Schilddrüsenknoten (17 hypofunktionelle und 3 hyperfunktionelle Knoten) behandelt und anschließend sonographisch ausgewertet. Mit einer medianen Volumen-reduktion (ΔV) von 5,3 ml (Spannweite: 0,13– 43,1 ml) nach 3 Monaten, was einer mittleren relativen Volumenreduktion von 56 ± 17,9 % entspricht, ergab sich ein signifikantes (p < 0,0001) Ergebnis. Das mediane Knotenvolumen reduzierte sich von anfangs 8 ml (Spannweite: 0,48– 62 ml) auf 2,3 ml (Spannweite: 0,3–32 ml) bei der Kontrolluntersuchung. Es kam bei allen Knoten zu einer Volumenreduktion, welche in 70 % der Fälle über 50 % betrug. Schwere Komplikationen wie anhaltende Stimmveränderungen, Nervenläsionen, Knoten-rupturen und Infektionen, ebenso wie immunogene Überfunktionen oder persistierende Schmerzen, traten während des Follow-ups nicht auf. Alle Patienten mit hypofunktionellen Knoten (15) blieben euthyreot, während sich Patienten mit hyperfunktionellen Knoten zum Zeitpunkt der Kontrolluntersuchung entweder in einer euthyreoten (2) oder latent hypothyreoten (1) Stoffwechsellage befanden. Ein medikationspflichtiger Hypothyreoidismus entstand bei keinem der Patienten. Daher stellt die bipolare RFA in Kombination mit der angewandten MOST ein effektives und sicheres thermoablatives Verfahren für die Behandlung gutartiger Schilddrüsenknoten dar.
Biologischen Systemen liegen Mechanismen zugrunde, die bis heute nicht vollständig aufgeklärt sind. Für die Untersuchung eignen sich externe Trigger, die eine Regulation von außen auf das System erlauben und Prozesse gezielt steuerbar machen. Eine Möglichkeit ist das System unter optische Kontrolle zu bringen, d.h. durch Licht eine externe Steuerung zu implementieren, was von einem internen Chromophor aufgenommen wird. In der vorliegenden Dissertation werden drei individuelle Projekte vorgestellt, die alle dieses Prinzip auf unterschiedliche Weise anwenden.
RNAs haben eine Vielzahl an verschiedenen Funktionen in der Zelle, die von der Proteinsynthese bis zur Genregulation variieren. Im ersten Projekt wurde der Photoschalter Spiropyran im Kontext von RNA eingesetzt. Mit dem Ziel das Derivat PyBIPS kovalent an ein Oligonukleotid zu binden und damit die Hybridisierung eines Duplexes zu steuern, wurden Strukturmotive gesucht, an die der Photoschalter postsynthetisch gebunden werden kann. Dabei soll die sterisch anspruchsvolle Spiropyran-Form die Watson-Crick-Basenpaarung stören und die planare, konjugierte Merocyanin-Form in den Duplex, zur zusätzlichen Stabilisierung, interkalieren. In Vorarbeiten von Clara Brieke wurde festgestellt, dass erstens nur PyBIPS, nach kovalenter Verknüpfung, noch vollständig photochemisch aktiv ist und zweitens eine Herstellung über Festphasensynthese nur in schlechter Ausbeute realisierbar ist. Ausgehend davon wurde PyBIPS an die drei nicht-nukleosidischen Linker, Aminoglykol, D-Threoninol und Serinol, postsynthetisch über eine Amidbindung angebracht, die zuvor über Oligonukleotidfestphasensynthese in 2´-OMe-RNA eingebaut wurden.
In der photochemischen Charakterisierung konnte gezeigt werden, dass PyBIPS, gebunden an alle drei Motive, noch photochemisch aktiv ist und im Vergleich zu ungebundenem PyBIPS stabiler ist gegenüber Photolyse. In Untersuchungen im Doppelstrang im Wedge Motiv, d.h. im Gegenstrang befindet sich kein Nukleotid gegenüber dem Photoschalter, wurde ein ähnliches Verhalten festgestellt. Zusätzlich zur charakteristischen Merocyanin-Bande bei 550 nm ist ein zweites, rotverschobenes Absorptionsmaximum entstanden, das die gleichen Eigenschaften besitzt. In Schaltzyklen wurde festgestellt, dass eine Isomerisierung bis 660 nm möglich ist, was eine Anwendung im therapeutischen Fenster zwischen ca. 600 und 1000 nm von Blut ermöglichen würde. Das Auftreten der zweiten Bande hängt stark vom Linker und dem Baustein im gegenüberliegenden Strang ab. Es wird vermutet, dass sich das, sonst nicht-bevorzugte, TTT-Isomer der Merocyanin-Form, durch Stabilisierung durch die Umgebung im Oligonukleotid ausbildet.
Zur Untersuchung, inwiefern die Isomerisierung des Photoschalters die Duplexstruktur beeinflusst, wurden Schmelzpunktstudien und Fluoreszenzmessungen zur KD-Bestimmung durchgeführt, ohne dass eine Veränderung zu erkennen war. In einer größeren NMR-Studie, in Kooperation mit Tom Landgraf (Arbeitsgruppe Prof. Dr. Harald Schwalbe) wurde der Fokus darauf-gelegt mehr Informationen über die strukturelle Integrität zu erhalten. Es findet eine Störung der benachbarten Basenpaarungen durch den Photoschalter statt, jedoch kann die Kraft der Isomerisierung des Photoschalters nicht übertragen warden. Der Einfluss war zunächst geringer als erwartet, was in anderen Anwendungen überprüft warden muss.
Im zweiten Projekt steht das Membranprotein OmpG aus E. Coli K12 im Fokus. Proteine besitzen viele verschiedene funktionelle Gruppen, die für selektive Biokonjugation genutzt werden können in einer Reihe von Anwendungen. OmpG gehört zur Gruppe der Porine, die in der äußeren Membran von Gram-negativen Bakterien sitzen und die seltene ß-Fassstruktur ausbilden. Die Pore besitzt einen großen Innendurchmesser ohne Selektivität. Das Molekül wurde bereits intensiv auf seine Struktur, insbesondere Loop 6, der pH-abhängig die Pore verschließt, untersucht. In Vorarbeiten von Grosse et al. wurde der Loop entfernt, sodass ein ruhiger Kanal entstanden ist, der ein optimales Modellsystem darstellt. Außerdem wurden in der Pore zwei Cysteine, die auf gegenüberliegenden Seiten auf halber Höhe des Kanals sitzen, eingeführt. An die Thiolgruppen wurden photolabile Schutzgruppen angebracht, die erst den Kanal blockieren und nach Abspaltung durch Licht wieder freigeben. Dazu wurde jeweils ein 7-Diethylaminocumarin (DEACM) postsynthetisch angebracht.
Der Linker am Cumarin-Alkohol stellt dabei einen Kompromiss dar, da er zum einen selektiv mit der Thiolgruppe des Cysteins reagieren soll, gleichzeitig aber noch photo-induziert wieder abspalten muss. Durch Belichtung findet eine Hydrolyse des Esters unter Abspaltung des Alkohols statt, der einen Carbonsäurerest am Thiol in der Pore zurück lässt. In spannungsabhängigen Einzelkanal-messungen, durchgeführt von Dr. Philipp Reiß (Universität Marburg), konnte gezeigt werden, dass die zwei DEACM Modifikationen eine Reduktion der Leitfähigkeit bewirkten und durch Licht abgespalten und aus dem Kanal entfernt werden konnten. Dabei war außerdem zu erkennen, dass die Leitfähigkeit aufgrund der Carboxylreste über das Niveau von unmodifiziertem OmpG steigt.
...
Einleitung und Hintergrund: Self-Myofascial-Release (SMR), eine in den letzten Jahren populär gewordene Trainingsform, beschreibt das Training mit sog. Hartschaumrollen oder anderer Hilfsmittel zur Selbstmassage. Mit dem Ziel der Nachahmung einer manuellen Behandlung übt der Trainierende mit dem eigenen Körpergewicht oder etwa einem Massagestick Druck auf das zu behandelnde Gewebe aus und bewegt sich rollend über das Sportgerät. Aktuelle Forschungsergebnisse deuten auf einen positiven Effekt von SMR auf Parameter der Beweglichkeit sowie der Regeneration hin, die zu Grunde liegenden Mechanismen sind bisher allerdings noch unklar. Bezüglich der Beweglichkeitsverbesserung könnten neurophysiologische Veränderungen im Bereich der Dehnwahrnehmung und Dehntoleranz eine Rolle spielen. Auf mechanischer Ebene könnte es analog zum statischen Stretching zu einer akuten Veränderung der viskoelastischen Gewebeeigenschaften kommen. Ebenso werden Effekte von SMR auf Gleiteigenschaften einzelner Faszienschichten postuliert. Das Ziel der vorliegenden Arbeit war daher die Evaluation der Akuteffekte von SMR auf die Beweglichkeit, die passive Gewebespannung und -steifigkeit sowie die Gleitbewegungen einzelner Faszienschichten am vorderen Oberschenkel.
Methodik: Nach Fallzahlplanung durchliefen in einem Cross-Over Studiendesign insgesamt 16 Probanden (w=6, m=10, 32±3 Jahre, 177,6±2,4cm, 78,2±5,2kg) alle der drei folgenden Interventionen in ausbalancierter, randomisierter Reihenfolge: a) 2x60 Sekunden SMR am vorderen Oberschenkel, b) 2x60s passives, statisches Stretching des vorderen Oberschenkels und c) eine passive Kontrollbedingung. Mindestens drei Tage vor Beginn des ersten Messtermins erhielten alle Probanden eine standardisierte Gewöhnungseinheit, in der alle Messungen sowie die SMR Intervention durchgeführt wurden. Die passive Gewebespannung und -steifigkeit bei 13, 9, 5 und 1 Grad vor dem individuellen Bewegungsende sowie die Position der ersten Dehnwahrnehmung wurden mittels isokinetischem Dynamometer (Biodex System 3 Professional), die aktive und passive Kniegelenksbeweglichkeit mittels ultraschallbasiertem 3D-Bewegunsanalysesystem (Zebris CMS20) vor sowie direkt nach der jeweiligen Intervention erhoben. Ebenso wurden Gleitbewegung einzelner Faszienschichten vor und nach der jeweiligen Intervention anhand von Ultraschallvideos (Siemens Acuson X300) und anschließender Cross-Correlation-Analyse berechnet. Die statistische Überprüfung auf Inter- und Intragruppeunterschiede erfolge nach Überprüfung der Anwendungsvoraussetzungen mittels Friedmann-Test und anschließendem post-hoc Wilcoxon-Test oder ANCOVA (Baselinewerte als Covariate) und post-hoc Vergleichen mit geschätzten Randmitteln und zugehörigen 95%-Konfidenzintervallen.
Ergebnisse: Die aktive und passive Gelenkbeweglichkeit verbesserte sich nach SMR im Mittel um 1,8° bzw. 3,4° signifikant. Nach statischen Dehnen war lediglich die Verbesserung der passiven Kniegelenksbeweglichkeit von im Mittel 3,2° signifikant, nach der passiven Kontrolle blieben aktive und passive Beweglichkeit unverändert. Der Winkel der ersten Dehnwahrnehmung vergrößerte sich SMR (+4,3° (1,4°-7,2°)) und Stretching (+6,7° (3,7°-9,6°)), blieb nach Kontrollbedingung jedoch unverändert (+0,3° (-2,5°-3,1°)). Passiver Gewebewiderstand und -steifigkeit veränderten sich nach keiner der Interventionen in keinem getesteten Winkel signifikant. Veränderungen in der Gleitbewegung einzelner Faszienschichten ergaben sich lediglich nach SMR. Die Gleitbewegung der tiefen Schicht gegenüber des Muskels sowie die Gleitbewegung zwischen oberflächlicher und tiefer Schicht verringerten sich nach SMR signifikant zur Baseline (-5,7mm (-11,3mm – -0,1mm) bzw. (-4.9mm (-9.1mm – -0.7mm)).
Diskussion: Die vorliegenden Ergebnisse bestätigen den positiven Einfluss von SMR auf die aktive und passive Beweglichkeit und liefern erste Hinweise bezüglich der zu Grunde liegenden Mechanismen. Während biomechanische Parameter wie passive Gewebespannung nach SMR und Stretching unverändert blieben, deuten Veränderungen der Dehnwahrnehmung auf einen Einfluss neurophysiologischer Mechanismen hinsichtlich akuter Effekte auf die Beweglichkeit hin. Die Ausschüttung verschiedener Neurotransmitter wie z.B. Oxytocin könnte Schmerz- und auch Dehnwahrnehmung nach SMR beeinflussen. Die Ergebnisse zeigen weiter, dass SMR zu einer Veränderung der Gleitbewegung einzelner Bindegewebsschichten am vorderen Oberschenkel führte. Diesbezüglich könnten veränderte thixotrophe Eigenschaften des losen Bindegewebes zwischen Faszie und Muskels sowie Veränderungen des Hydratationsgrades eine Rolle spielen.
Aus den Ergebnissen der vorliegenden Studie lassen sich verschiedene Implikationen für die Trainings- und Therapiepraxis ableiten. So eignet sich SMR u.a. als Alternative zu statischen Dehnmethoden zur akuten Verbesserung der Beweglichkeit, zur Veränderung der Dehnwahrnehmung (etwa bei akuten und schmerzhaften Bewegungseinschränkungen) und möglicherweise zur Normalisierung der Gleiteigenschaften einzelner Bindegewebsschichten. Unklar bleiben bisher die Übertragbarkeit der Ergebnisse auf andere Körperregionen sowie die Effekte von SMR bei Patienten mit strukturellen Bindegewebsveränderungen. Ebenso sind die langfristigen Effekte von SMR bisher unklar und bieten Anschlusspunkte zukünftiger Studien.
Ende des Jahres 1104 verließ Heinrich V. im Vorfeld eines Sachsenzuges das Hoflager seines Vaters, dem langjährigen Herrscher Kaiser Heinrich IV., und verband sich mit der antikaiserlichen Opposition im Reich. Nach mehreren Konfrontationen zwischen Vater und Sohn dankte Heinrich IV. schließlich 1106 als Herrscher ab.
Die zeitgenössischen Quellen schildern dieses Ereignis als einen Verrat Heinrichs V. an seinem Vater und bedienen sich dabei unterschiedlicher Motive.
Von den Quellen, die die Ereignisse schildern, werden in dieser Arbeit die Kapitel 9 und 10 des Vita Heinrici IV. imperatoris genannten Werkes eines Anonymous, das nach dem Tode des Kaisers entstand, die Briefe 37 und 39 Heinrichs IV. und die auf Ekkehard aufbauende Anonyme Kaiserchronik betrachtet.
Hierbei wird die Darstellung des Anonymous in dem Vita Heinrici IV. imperatoris genannten Werk mit den Briefen 37 und 39 sowie der Anonymen Kaiserchronik konfrontiert und anhand von Forschungsliteratur hinterfragt. Die dabei zu beantwortetenden Fragen lauten: Hat Heinrich V. seinen Vater tatsächlich verraten oder folgte er einem gemeinsamen Plan? Falls dies der Fall war: Zu welchem Zeitpunkt ist der Plan, der offensichtlich nicht aufgegangen ist, gescheitert? Betreffend der Darstellung des Anonymous soll folgende Frage verfolgt werden: Lässt die Darstellung des Anonymous in dem Vita Heinrici IV. imperatoris genannten Werk Heinrich IV. als Persönlichkeit erkennen?
Die chronologische Betrachtung der einzelnen Schritte von dem Fortgang Heinrichs V. vom Hoflager seines Vaters bis hin zur Abdankung Heinrichs IV. werden in zusammenfassender Betrachtung erkennen lassen, dass der angebliche Verrat Heinrichs V. an seinem Vater keine eindeutige Sache ist, wie es die zeitgenössischen Quellen und die auf ihr basierende neuzeitliche Literatur darzustellen versuchen.
1973 legte Thomas E. Morissey als Schüler von Brian Tierney seine – leider ungedruckt gebliebene – Dissertation »Franciscus de Zabarellis (1360–1417) and the Conciliarist Traditions« vor, um fortan bei diesem Thema zu bleiben, wie vorliegender Band belegt, der eine Auswahl von Aufsätzen aus den Jahren 1976 bis 2010 vereint, 15 davon als Nachdruck, zwei als Erstpublikation. Wer als Gelehrter Aufnahme in die »Variorum Reprints« bei Ashgate findet, gilt, zumindest in der angelsächsischen Welt, als Autorität auf seinem Gebiet, und in der Tat dürfte gegenwärtig allenfalls noch Dieter Girgensohn sich ähnlich gut wie Morissey im Leben und Werk des Paduaner Rechtsgelehrten auskennen, der als akademischer Lehrer und Autor ein großes, internationales Publikum fand und auch kirchenpolitisch von Einfluss war; selbst die nach seinem Tod in Padua Recht studierenden Nikolaus von Kues, Giuliano Cesarini oder Niccolò Tudeschi (Panormitanus) waren noch von seinem Geist geprägt. ...
Nein, Langeweile kommt bei Franck Collard nicht auf, ist er doch Historiker des Gifts und der Leidenschaft. Seit seinem Werk "Le crime de poison au Moyen Âge" greift er immer wieder das Problem des Einsatzes von Gift in der Welt des Spätmittelalters, vor allem im 15. Jahrhundert, auf; einem Saeculum, in dessen erster Hälfte – zumal in einem im Innern zerrissenen und vom Hundertjährigen Krieg heimgesuchten Frankreich – ebenso das Thema der "passions" eine zentrale Rolle spielt, dem er bereits 2015 die Studie "Politique des passions et anthropologie des pulsions à la cour de Charles VII" widmete . Eine Annäherung an Jeanne d’Arc unter solches Vorzeichen zu stellen lag nahe, einmal aufgrund besagter "passions au sens de déchirements" im Königreich, sodann angesichts von Johannas "passion au sens d’exaltation affective et d’amour extrême" wie auch – mit Blick auf ihren Prozess und Tod in Rouen – wegen ihrer "passion … au sens de souffrance sacrificielle" (S. 11). ...
Ziele: Das Ziel dieser offiziellen Leitlinie, die von der Deutschen Gesellschaft für Gynäkologie und Geburtshilfe (DGGG) und der Deutschen Krebsgesellschaft (DKG) publiziert und koordiniert wurde, ist es, die Früherkennung, Diagnostik, Therapie und Nachsorge des Mammakarzinoms zu optimieren.
Methoden: Der Aktualisierungsprozess der S3-Leitlinie aus 2012 basierte zum einen auf der Adaptation identifizierter Quellleitlinien und zum anderen auf Evidenzübersichten, die nach Entwicklung von PICO-(Patients/Interventions/Control/Outcome-)Fragen, systematischer Recherche in Literaturdatenbanken sowie Selektion und Bewertung der gefundenen Literatur angefertigt wurden. In den interdisziplinären Arbeitsgruppen wurden auf dieser Grundlage Vorschläge für Empfehlungen und Statements erarbeitet, die im Rahmen von strukturierten Konsensusverfahren modifiziert und graduiert wurden.
Empfehlungen: Der Teil 1 dieser Kurzversion der Leitlinie zeigt Empfehlungen zur Früherkennung, Diagnostik und Nachsorge des Mammakarzinoms: Der Stellenwert des Mammografie-Screenings wird in der aktualisierten Leitlinienversion bestätigt und bildet damit die Grundlage der Früherkennung. Neben den konventionellen Methoden der Karzinomdiagnostik wird die Computertomografie (CT) zum Staging bei höherem Rückfallrisiko empfohlen. Die Nachsorgekonzepte beinhalten Untersuchungsintervalle für die körperliche Untersuchung, Ultraschall und Mammografie, während weiterführende Gerätediagnostik und Tumormarkerbestimmungen bei der metastasierten Erkrankung Anwendung finden.
Der Band untersucht die Ursachen, Ausprägungen und Reaktionen auf die Entstehung bzw. Erstarkung populistischer Parteien und Bewegungen in Deutschland und Ostmitteleuropa.
Inhaltsverzeichnis:
Arthur Benz: Populismus als Herausforderung für Wissenschaft und Praxis - Einleitung
Dirk Jörke: Populismus – Ursachen und falsche Antworten
Michael Edinger: Mobilisierung gegen das Establishment. Zu einem Wesensmerkmal populistischer Strömungen
Claudia Landwehr und Nils D. Steiner: Populismus – eine Nachfrageperspektive
Joachim Klose: Ein Land, zwei Perspektiven? Zum Populismusin Ost- und Westdeutschland
Petra Guasti und Lenka Buštíková: Populismus in Ostmitteleuropa und der Verzicht auf Politik
Erstmalig begrüßen Sie zwei Veranstalter zum Kongress der Deutschen Gesellschaft für Psychologie (DGPs). Im Namen der Goethe-Universität und des DIPF heißen wir Sie zum 51. DGPs-Kongress in Frankfurt herzlich willkommen. Unser diesjähriges Motto "Psychologie gestaltet" stellt die Bedeutung der wissenschaftlichen Psychologie für die Bewältigung individueller und gesellschaftlicher Herausforderungen in den Mittelpunkt. Als Forschende haben wir in vielen Bereichen die Möglichkeit, positiv zur Gestaltung menschlichen Lebens und Zusammenlebens beizutragen. In diesem Sinne freuen wir uns auf einen anregenden Kongress, gestaltet durch die rund 2400 wissenschaftlichen Beiträge aus allen Gebieten der Psychologie. ...
The thesis John Calvin has been the religious initiator of modern capitalist mentality is not in accordance with his doctrine, just the opposite is true. Calvin had a very traditional will say non- or even ant-capitalist in view of economic behaviour.
Massenspektrometrie-basierte Proteomuntersuchungen erfolgen auch heute überwiegend nach dem sogenannten Bottom-Up-Ansatz, d.h. die Identifizierung von Proteinen erfolgt auf der Basis von Peptiden, die chromatographisch gut voneinander getrennt werden können und massenspektrometrisch leichter zu analysieren sind als Proteine. Nach Identifikation der Peptide kann rekonstruiert werden, welche Proteine ursprünglich in der Probe vorgelegen haben. Zentraler Arbeitsschritt der Probenvorbereitung ist daher die Zerlegung des Proteins, die entweder chemisch oder - wie in den meisten Fällen – enzymatisch erfolgt. Trypsin ist das mit Abstand am häufigsten genutzte Enzym, da es eine hohe Schnittspezifität aufweist und sehr effizient ist. Der Trypsin-Verdau ist darüber hinaus sehr robust, d.h. er zeigt eine hohe Toleranz gegenüber Verunreinigungen, und zudem werden Peptide erzeugt, die sowohl gute Ionisations- als auch gute Fragmentierungseigenschafen aufweisen. Die durch Trypsin gebildeten Peptide enthalten neben dem basischen N-Terminus eine weitere basische Aminosäure am C-Terminus, so dass sie leicht zumindest doppelt-geladene Ionen bilden können und sehr häufig aussagekräftige C-terminale Fragmentioneserien liefern.
Neben den zahlreichen Vorteilen gibt es allerdings auch Nachteile. So können nach einem tryptischen Verdau in Abhängigkeit von der Verteilung der Schnittstellen Peptide entstehen, die entweder zu klein sind, um eine verlässliche Zuordnung zu einem Protein zu erlauben oder die zu groß sind für den Massenbereich des gewählten Massenanalysators. Eine vielversprechende Alternative zu Trypsin wäre ArgC, welches C-Terminal zu Argininen schneidet und somit im Durchschnitt größere Peptide mit Ionisations- und Fragmentierungseigenschaften ähnlich zu tryptischen Peptiden erzeugt. Das Enzym ArgC weist jedoch nur eine geringe Schnittspezifität auf und sein Trypsin-ähnliches Verhalten – also das Schneiden auch hinter Lysin - wurde öfters beobachtet und wird auch vom Hersteller angegeben. Ziel dieser Arbeit war die Entwicklung einer Verdaumethode, die Peptide erzeugt, die ausschließlich auf Argininen enden.
Das Resultat der zu entwickelnden Verdaumethode sollte somit dem eines idealen enzymatichen ArgC-Verdaues entsprechen. Realisiert wurde der ArgC-ähnliche-Verdau durch den Einsatz von Trypsin, dessen enzymatischer Schnitt durch die chemische Derivatizierung der Substrat-Lysine auf Arginine reduziert wurde. Neben dem weiteren Einsatz von Trypsin sollte dieser "Quasi-Arg-C-Verdau" weitere systematische Vorteile für Proteomanalysen realisieren: Zum Ersten sollte die Anzahl von Fehlschnitt-Peptiden, die sich bei Trypsin insbesondere an Lysinen mit saurer chemischer Umgebung ergeben, reduziert werden, zum Zweiten sollten die Arg-C-Peptide sowohl durch ihre gewachsende Größe, als auch durch das mit dem C-terminalen Arginin verbesserte Fragmentierungsverhalten höhere Score-Werte bei der bioninformatischen Auswertung der MS-Daten ergeben.
Im ersten Teil wurden zunächst bioinformatische Werkzeuge entwickelt, die MALDI-MS-Dateien automatisiert prozessierten. Die entwickelten Programme umfassen die Identifizierung und relative Quantifizierung von Proteinen aus diesen Dateien. Des Weiteren wurde ein Programm zur Analyse von MALDI-ISD-Dateien entwickelt. Automatisierte Auswertungen gelangen durch die Erstellung von Workflows in der Datenanalyseplattform KNIME. Diese Workflows kombinieren in Python geschriebene Skripte und Funktionalitäten frei verfügbarer Programme wie "MSConvert" und "mMass".
Nach Erstellung der bioinformatischen Werkzeuge wurde die Methodenentwicklung zur Modifizierung der Lysine für verschiedene Reagenzien durchgeführt. Die Auswahl fiel auf vier Substanzen, von denen bekannt ist, dass sie unter milden Reaktionsbedingung im quantitativen Ausmaß mit Aminogruppen reagieren. Diese waren Sulfo-NHS-Acetat, Propionsäureanhydrid, Diethylpyrocarbonat und die reduktive Methylierung mit Formaldehyd und Picolin-Boran. Die Reaktionsbedingungen mussten zunächst für Proteine optimiert werden, da die publizierten Protokolle hauptsächlich zur Derivatizierung von Peptiden verwendet worden waren. Anschließend wurden die optimierten Protokolle für eine Protein- und Proteomprobe eingesetzt und die Resultate miteinander verglichen. Die Untersuchungen führten zu dem Ergebnis, dass sowohl auf Protein- als auch auf Proteomebene die Propionylierung des Lysins die besten Resultaten zeigte. Insbesondere ist hervorzuheben, dass alle ArgC-ähnlichen Ansätze unabhängig vom eingesetzten Reagenz zu besseren Ergebnissen in jeder der Untersuchungen führte als der klassische enzymatische ArgC-Verdau.
...
Quantenchemische Untersuchungen zu Reaktionsmechanismen reaktiver Carben- und Silylenverbindungen
(2018)
In dieser Arbeit werden Reaktionsmechanismen verschiedener Carben- und Silylenverbindungen mit quantenchemischen Methoden untersucht: Die Zerfallsreaktion acylischer Diaminocarbene, die Reaktion verschiedener Diaminocarbene mit CO, die C-C Kupplung von Benzophenon mit SiCl2, die Reaktion von NHC mit Si2Br6 und die Reaktion von Dimethyltitanocen mit neo-Si5H12
Evaluationssatzung für Lehre und Studium der Johann Wolfgang Goethe-Universität Frankfurt a. M.
(2018)
All linguistics should be media linguistics, but it is not. This thesis is presented by using linguistic landscapes as an example. LL research does not belong to the traditional core of either mainstream linguistics or media linguistics. This is why not everything within power has been done yet to make full use of their thematic, conceptual and methodological possibilities. Visible signs in public space, however, are an everyday phenomenon. You have to pull out all the stops to research them extensively. The distinction between linguistics and media linguistics turns out to be counterproductive. But this does not only apply to the case of linguistic landscapes. It also stands for any comprehensive investigation of language and language use. (Exceptions may be very narrow questions for specific purposes.) The above thoughts are supported by a database of the project „Metropolenzeichen“ with more than 25.000 systematically collected, geocoded and tagged photographs.
Das Journal für Medienlinguistik (jfml) ist eine medienlinguistische Open-Access-Zeitschrift. Im Sinne einer offenen, interaktiven und unabhängigen Wissenschaftskultur erfolgt die Qualitätssicherung des jfml durch ein Open Peer Review und die medienlinguistische Expertise des Editorial Boards. Das jfml veröffentlicht deutsch- und englischsprachige Artikel, Rezensionen und Tagungsberichte, die fortlaufend erscheinen.
Der Medienlinguistik kommen zwei wesentliche Aufgabenbereiche zu, die die thematischen Eckpfeiler des jfml bilden:
1) Die theoretische und empirische Durchdringung des Verhältnisses zwischen Medialität und Sprachlichkeit: Dieses Verhältnis stellt sich für Kommunikation, Kultur und Kognition als grundlegend dar. Insofern erweist sich die Medienlinguistik als basales sprachwissenschaftliches Forschungsfeld.
2) Die Erforschung von Sprache und Kommunikation unter dem Einfluss medialer Veränderungen. Diese Veränderungen hatten und haben Auswirkungen auf das gesellschaftliche Leben: auf den Alltag, die beruflichen Kontexte und natürlich gerade auch die Öffentlichkeit. Daher sind sowohl auf der Mikro- als auch auf der Makroebene medienlinguistische Analysen notwendig.
Das jfml lädt dazu ein, theoretische, empirische, methodische und methodologische Fragestellungen zu bearbeiten und entsprechende Artikel einzureichen. Ferner sind Rezensionen und Tagungsberichte medienlinguistischer Publikationen und Veranstaltungen erwünscht.
Alle Beiträge erscheinen unter einer Creative Commons-Lizenz (CC BY-SA 4.0 international).
MoSyD-Jahresbericht 2016 : Drogentrends in Frankfurt am Main ; Monitoring-System Drogentrends
(2017)
MoSyD-Jahresbericht 2017 : Drogentrends in Frankfurt am Main ; Monitoring-System Drogentrends
(2018)
GOeTHEO : Ausgabe 19
(2018)
The German government has recently adopted a reform package for the statutory pension insurance scheme to ensure that the pension level will not fall below 48% and that the contribution rate will not exceed 20% up to 2025. In addition, there are planned improvements in maternal pensions, pensions for people with reduced earnings capacity and relief for low-income earners. The total extra cost of these measures is estimated at approximately EUR 32bn, to be financed by funds of the statutory pension system and by increased federal subsidies. It is currently unclear how the German pay-as-you-go pension system will be reformed for the period after 2025. The author suggests establishing a “Pension Fund Germany” as a capital-backed fund with a highly diversified investment portfolio. A German sovereign wealth fund of this kind could make an important contribution to greater intergenerational equity. Financing could be provided by, for example, retaining part of the solidarity surcharge on German income tax rather than abolishing it entirely, as is currently envisaged.
Einleitung: Die chronische Hepatitis C gehört zu den häufigen Ursachen einer Leberzirrhose. Durch die Entwicklung von direkt antiviralen Medikamenten (direct acting antiviral agent, DAA) können Heilungsraten von über 90% bei chronischer Hepatitis C erreicht werden. Der Einfluss des Therapieerfolgs auf Fibroseregression und portale Hypertension ist insbesondere für Patienten mit Leberzirrhose bisher nicht ausreichend geklärt. Elastographische Messungen von Leber und Milz können als Surrogatmarker zur nicht-invasiven Evaluation von Fibroseregression und Rückgang von portaler Hypertension dienen. Ziel der vorliegenden Arbeit war die Evaluation der Dynamik von Leberfibrose und portaler Hypertension mittels transienter Elastographie der Leber (L-TE) und Acoustic Radiation Force Impulse Elastographie von Leber (L-ARFI) und Milz (M-ARFI) bei Patienten mit DAA-induziertem anhaltendem virologischen Ansprechen (sustained virological response, SVR) und Hepatitis C Virus (HCV) assoziierter Leberzirrhose.
Patienten und Methoden: In dieser prospektiven, monozentrischen Studie wurden Daten von 56 Patienten mit chronischer Hepatitis C und assoziierter Leberzirrhose analysiert, die eine SVR nach 12-24 Wochen antiviraler Hepatitis C Therapie mit DAA's erreichten. Dabei wurden zu vier Zeitpunkten (Therapiebeginn [BL], Therapieende [EOT], 24 Wochen nach Therapieende [FU24] und 48 Wochen nach Therapieende [FU48]) Messungen vorgenommen. Zusätzlich wurden Leberzirrhose assoziierte Scores und Komplikationen sowie Laborparameter erhoben.
Ergebnisse: Die elastographischen Messungen der Leber zeigten signifikante Verbesserungen im Studienverlauf, am stärksten während der antiviralen Therapie. Im L-TE zeigten sich Verbesserungen zwischen BL [Median(Min-Max), 32,45(9,1-75)kPa] und FU48[Median (Min-Max), 17,1 (3,7-59,3) kPa] (p<0,0001) und im L-ARFI zwischen BL [Median (Min-Max), 2,7 (1,2-4,1) m/s] und FU24 [Median (Min-Max), 2,5 (1,2-3,9)m/s (p=0,011), wobei signifikante Verbesserungen (≥30%) bei 35/49 (71%) Patienten im L-TE und bei 6/55 (11%) im L-ARFI auftraten. Die M-ARFI Messungen als Korrelat der portalen Hypertension, zeigten kaum Veränderungen. Die medianen Werte blieben zwischen BL [Median (Min-Max), 3,4 (1,9-4,3) m/s] und FU48 [Median (Min-Max), 3,4(2-4,4) m/s] konstant (p=0,9). Nur 2/54 (4%) der Patentien zeigten signifikante Verbesserungen. In der univariaten Analyse zeigten sich 65 als positive Einflussfaktoren der L-TE- und L-ARFI-Verbesserung ein MELD Score bis 10 sowie ein BMI bis 30 kg/m².
Diskussion und Schlussfolgerung: In Zusammenschau der Ergebnisse kann bei einem Teil der Patienten von einer Fibroseregression und dem Rückgang der portalen Hypertension nach DAA-basierter, interferon-freier antiviraler Therapie ausgegangen werden. Die mittels L-ARFI und L-TE gemessene Verbesserung der Lebersteifigkeit unter antiviraler Therapie scheint auf einer Verbesserung von Nekroinflammation und Leberfibrose zu basieren. Bei Nichtbeachtung des Einflusses der Nekroinflammation auf nicht-invasive Messungen der Lebersteifigkeit kann es zur Überschätzung der Fibroseregression nach SVR kommen. Da es sich bei der Zirrhose- bzw. Fibroseregression anscheinend um einen langsamen Prozess handelt, sind ausreichend lange Nachbeobachtungszeiten in entsprechenden Studien zu fordern. Für die mit einer Leberzirrhose assoziierte portale Hypertension gelten ähnliche Überlegungen.
Die Abstrahlung von internen Schwerewellen in atmosphärischen Strahlströmen und Temperaturfronten trägt vermutlich mit einem signifikanten Beitrag zum gesamten Schwerewellenspektrum bei. Das physikalische Verständnis der dabei ablaufenden Prozesse ist derzeit allerdings noch zu gering ausgeprägt, um eine adäquate mathematische Darstellung für operationelle Wetter- und Klimamodelle zu entwickeln. In dieser Arbeit wird der Mechanismus dieser Schwerewellenquelle in numerischen Simulationen des differenziell geheizten rotierenden Annulusexperiments erforscht. Dieses Experiment besitzt eine im Vergleich zur Atmosphäre deutlich verringerte Anzahl an Freiheitsgraden und eignet sich besonders gut zum Studium der Dynamik der mittleren Breiten. Analoge Untersuchungen werden in einem äquivalenten kartesischen Modellsystem vorgenommen, in dem periodische Bedingungen in den beiden horizontalen Raumrichtungen vorliegen.
Im Gegensatz zur Annuluskonfiguration, in der nachweislich auch eine Schwerwellenabstrahlung an den Zylinderwänden erfolgt, kommt in dieser Konfiguration nur die interne Dynamik als Schwerewellenquelle in Frage. Die nichtlinearen Simulationen beider Modellkonfigurationen zeigen eine großskalige barokline Wellenstruktur, die ein atmosphärenähnliches Jet-Front System beinhaltet. Darin eingelagert werden vier voneinander isolierte Schwerewellenpakete in der Annuluskonfiguration sowie zwei Schwerewellenpakete im doppeltperiodischen Modellsystem charakterisiert. Um den zugrundeliegenden Quellmechanismus zu untersuchen, erfolgt eine Aufspaltung der Zustandsvariablen in einen balancierten und einen unbalancierten Anteil, wobei erstgenannter das geostrophische und hydrostatische Gleichgewicht erfüllt und letztgenannter das Schwerewellensignal enthält. Die Strömungsaufspaltung bildet die Grundlage für die Entwicklung eines tangential-linearen Modells für den unbalancierten Strömungsanteil. Hierbei wird eine systematische Umformulierung der dynamischen Grundgleichungen hinsichtlich der Wechselwirkung beider Strömungsanteile vollzogen. Insbesondere wird der rein balancierte Antrieb der unbalancierten Strömung freigelegt, um dessen Einfluss auf die Schwerewellenaktivität zu quantifizieren. Die anschließenden tangential-linearen Simulationen zeigen, dass drei der vier Schwerewellenpakete in der Annuluskonfiguration in der internen Strömung generiert werden. Ein verbleibendes Wellenpaket entsteht an der inneren Zylinderwand, ehe es in das innere Modellvolumen propagiert. Darüber hinaus wird deutlich, dass der rein balancierte interne Antrieb der Schwerewellen einen signifikanten Beitrag zur Schwerewellengenerierung leistet. Im doppeltperiodischen Modellsystem gibt es eine nahezu perfekte Übereinstimmung zwischen den unbalancierten Strömungsmustern in den tangential-linearen und den nichtlinearen Simulationen. Auch dort nimmt der balancierte Antrieb eine zentrale Rolle bei der Schwerewellenabstrahlung ein. Die abschließende Gegenüberstellung verschiedener, voneinander unabhängiger Gleichgewichtskonzepte macht deutlich, dass die balancierte Strömung der führenden Ordnung in der Rossbyzahl bereits eine erstaunliche Übereinstimmung mit der vollen Strömung liefert. Zudem erbringt die Anwendung einer Lagrange'schen Filtermethode den Nachweis, dass die Vertikalbewegungen und die horizontalen Divergenzsignale in der Annuluskonfiguration fast ausschließlich auf die Schwerewellenaktivität zurückzuführen sind.
Zur Unterstützung von Lehrkräften bei der Auswahl eines Sachunterrichtsschulbuchs im Hinblick auf die didaktische Aufbereitung physikalischer Themen wurde ein bereits bestehendes und in der Schweiz eingesetztes Schulbuchraster weiterentwickelt. Die ergänzenden Bewertungskriterien berücksichtigen, inwieweit die Schulbücher physikalische Inhalte in einer Weise präsentieren, dass a) häufige Präkonzepte der Schülerinnen und Schüler aufgegriffen, b) Inhalte strukturiert dargestellt werden, c) multiple externe Repräsentationen zum Einsatz kommen, d) Selbsterklärungen angeregt wie auch e) offene Schülerexperimente angeboten werden. Zudem sollten f) für die Lehrkräfte Zusatzmaterialen mit fachwissenschaftlichen und fachdidaktischen Erläuterungen zur Verfügungen stehen. Ergänzende Erläuterungen der Rasterkriterien sollen eine möglichst objektive Beurteilung unterstützen. Anhand dieses weiterentwickelten Rasters wurden exemplarisch die 2017 in Hessen zugelassenen Sachunterrichtsschulbücher analysiert.
Auf Knopfdruck geht es sekundenschnell in die Tiefe. Als sich die Aufzugstür drei Stockwerke unter der Erde öffnet, tauchen im Licht von Neonröhren unendlich lang erscheinende Regale auf. Viele sind vollgestellt mit Büchern. Andere warten darauf, dass sich ihre Reihen noch füllen. Etwa 2,7 Millionen Bände lagern in unterirdischen Magazinen der Universitätsbibliothek (UB) Johann Christian Senckenberg am Campus Bockenheim. Der Name UB umfasst zum einen die Zentralbibliothek (ZB) am Campus Bockenheim, zum anderen die fünf Bereichsbibliotheken Naturwissenschaften, Recht und Wirtschaft, Sozialwissenschaften und Psychologie, Geisteswissenschaften sowie Medizin.
Martin Luthers theologische Idee der Unterscheidung von Gnade/Evangelium und Gesetz/Vernunft, Glauben/Unglauben und Werk, schränkte die Zweiwertigkeitslogik des Aristoteles auf die Gestaltung der Existenz ein und erwies ihre Ungültigkeit für die Erfassung des Grundes der Existenz. Während Luther die dialektische Struktur der Beziehung von Gestaltung und Grund der Existenz in der Form der o.g. Vorstellung zum Ausdruck brachte, hat G.W.F. Hegel sie auf den Begriff gebracht und damit Luthers Theologie in die Philosophie transformiert.
EBV Infektionen nach allogener hämatopoetischer Stammzelltransplantation sind neben dem Rezidiv eine häufige Komplikation und verbleiben ein häufiger Grund der Morbidität. Langanhaltende Immunsuppression oder die verspätete T-Zell Recovery können EBV Infektionen nach Transplantation begünstigen, welche unter diesen Umständen zu lebensbedrohlichen lymphoproliferativen Erkrankungen (PTLD) führen können. Für die optimale Behandlung der PTLD gibt es keinen Konsens. Adoptive Immuntherapien mit sowohl anti-Tumor Kapazität als auch wiederhergestellter virus-spezifischer zellulärer Immunität könnten, vor allem im Bezug einer PTLD, eine optimale Behandlungs-Option darstellen.
Zytokin-induzierte Killer (CIK)-Zellen repräsentieren einen neuen immuntherapeutischen Ansatz, da sie trotz hoher Mengen an T-Zellen nur ein geringes alloreaktives Potential besitzen und selbst im haploidenten Setting nur ein geringes Risiko zur Induktion einer GvHD besitzen. Der Graft versus Leukämie/Tumor-Effekt nach allogener SZT wird durch die Zellen verstärkt. Durch das dual spezifische zytotoxische Potential der CIK-Zellen über den nicht-MHC restringierten NKG2D Killing-Mechanismus und den MHC restringierten Mechanismus über den T-Zell Rezeptor können sowohl virusinfizierte als auch transformierte Zellen bekämpft werden. In der Literatur gibt es bisher nur eine Arbeit (aus unserer Arbeitsgruppe), in der CIK-Zellen mit spezifischen viralen Antigenen für eine antileukämische und potentielle anti-virale Aktivität stimuliert werden.
Im Rahmen dieser Arbeit wurde sowohl in prä-klinischen als auch in einem klinischen Ansatz die Durchführbarkeit, Anwendbarkeit, Effektivität und Sicherheit von EBV-spezifischen CIK-Zellen untersucht. Dazu wurde in einem ersten Schritt untersucht, ob sich durch die Modifizierung des konventionellen Herstellungsprotokolls EBV-spezifische CIK-Zellen generieren lassen.
Im präklinischen in vitro Setting wurde eine Modifizierung im CIK Herstellungsprotokoll vorgenommen um EBV-spezifische CIK-Zellen zu generieren, die sowohl ein anti-leukämisches als auch ein spezifisches anti-virales (EBV) Potential besitzen. Die Generierung erfolgte aus peripheren, mononukleären Zellen EBV-seropositiver Spender. Zusätzlich zu den CIK-Stimulanzien wurden die Zellen zweimal mit dem EBV Consensus Peptid Pool stimuliert, der Peptidsequenzen von verschiedenen latenten und lytischen EBV-Proteinen enthält. Durch die Modifikation konnte eine Ko-Expansion an EBV-spezifischen Zellen innerhalb des CD3+CD8+ Kompartiments der CIK-Zellen von bis zu 8% erreicht werden. In Zytotoxizitätsanalysen wurde das effektorische Potential der generierten Zellen überprüft. Gegenüber EBV peptidbeladenen Zielzellen zeigten die zusätzlich mit EBV-Peptid stimulierten CIK-Zellen in allen E:T Ratios (40:1, 20:1 und 5:1) eine signifikant höhere lytische Aktivität im Vergleich zur Aktivität konventioneller CIK-Zellen. Durch Blocking des NKG2D Rezeptors wurde die TCR-vermittelte lytische Aktivität in Bezug auf ein virales Ziel weiter gezeigt. Das anti-leukämische Killing Potential über den nicht-MHC restringierten NKG2D Rezeptor blieb zeitgleich erhalten, was sich in spezifischen Lysen gegenüber K562 und THP-1 Zellen von bis zu knapp 60% wiederspiegelt. Die durchflusszytometrische immunphänotypische Charakterisierung der EBV-stimulierten CIK-Zellen mittels 10-Farb Panel ergab keine signifikanten Unterschiede in Bezug auf Phänotyp und Rezeptor-Repertoire im Vergleich zu den konventionellen CIK-Zellen. Die Zytokin- und Chemokin Analysen der EBV-spezifischen CIK-Zellen spiegelten ein CD8+ TH1 Profil wieder und reflektierten den zytotoxischen Charakter der Zellen. Mit dem modifizierten Protokoll war es möglich für eine Patientin GMP-konforme CIK-Zellen mit EBV-Spezifität zu generieren, die 9,6 x 103 EBV-spezifische T-Zellen/kg Körpergewicht enthielten. Die Infusion der EBV-spezifischen CIK-Zellen resultierte in einer rapiden Beseitigung der Plasma EBV DNA und langanhaltendem Verschwinden des großen (27 cm3) PTLD-malignen Lymphoms. Während des anschließenden Immun-Monitorings der Patientin konnten CD4+ und CD8+ EBV-spezifische CIK-Zellen mittels der Dextramer Technologie in vivo im Blut der Patientin über einen Zeitraum von 32 Tagen nachgewiesen werden. Weitere FACS Analysen ergaben, dass sich im CD8+ Kompartiment der Patientin neben den CD8bright T-Zellen eine wachsende Population an CD8dim Zellen nachweisen ließ. Diese bestand zu einem bemerkenswerten Prozentsatz von bis zu 95% aus TEMRA Zellen, die auf virusspezifische T-Zellen hinweisen. Die Infusion der Zellen induzierte weder ein CRS noch andere Toxizitäten. Zytokin-Analysen aus dem Serum der Patientin reflektierten ein zytotoxisches und anti-virales Potential der infundierten Zellen. In vitro zeigten die unter GMP generierten Zellen im E:T Verhältnis von 40:1 und 20:1 ein 2-fach höheres zytotoxisches Potential gegenüber peptidbeladenen T2 Zellen im Vergleich gegenüber WT T2 Zellen. Der anti-leukämische Effekt gegen K562 Zellen blieb auch hier erhalten. 2 Jahre nach Behandlung ist die Patientin immer noch in Remission.
Die in dieser Arbeit erzielten prä-klinischen und klinischen Ergebnisse zeigen, dass virusspezifische CIK-Zellen eine neue, potentielle Immuntherapie darstellen, da die Zellen eine wirksame anti-leukämische Immunität mit antiviraler Immunrekonstitution vereinen. EBV-spezifische CIK-Zellen erwiesen sich als ein vielversprechender Ansatz für die Prävention von malignen Erkrankungen sowie in der Behandlung von EBV-Komplikationen nach allogener SZT.
Unter Web-based Trainings (WBTs) versteht man multimediale, interaktive und thematisch abgeschlossene Lerneinheiten in einem Browser. Seit der Entstehung des Internets in den 1990er Jahren sind diese ein wichtiger und etablierter Baustein bei der Konzeption und Entwicklung von eLearning-Szenarien. Diese Lerneinheiten werden üblicherweise von Lehrenden mit entsprechenden Autorensystemen erstellt. In selteneren Fällen handelt es sich bei deren Umsetzungen um individuell programmierte Einzellösungen. Betrachtet man WBTs aus der Sicht der Lernenden, dann lässt sich feststellen, dass zunehmend auch nicht explizit als Lerneinheiten erstellte Inhalte genutzt werden, die jedoch genau den Bedürfnissen des jeweiligen Lernenden entsprechen (im Rahmen des informellen und selbstgesteuerten Lernens). Zum einen liegt das an der zunehmenden Verfügbarkeit und Vielfalt von „alternativen Lerninhalten“ im Internet generell (freie Lizenzen und innovative Autorentools). Zum anderen aber auch an der Möglichkeit, diese Inhalte von überall aus und zu jeder Zeit einfach finden zu können (mobiles Internet, Suchmaschinen und Sprachassistenten) bzw. eingeordnet und empfohlen zu bekommen (Empfehlungssysteme und soziale Medien).
Aus dieser Veränderung heraus ergibt sich im Rahmen dieser Dissertation die zentrale Fragestellung, ob das Konzept eines dedizierten WBT-Autorensystems den neuen Anforderungen von frei verfügbaren, interaktiven Lerninhalten (Khan Academy, YouTube und Wikipedia) und einer Vielzahl ständig wachsender und kostenfreier Autorentools für beliebige Web-Inhalte (H5P, PowToon oder Pageflow) überhaupt noch gerecht wird und wo in diesem Fall genau die Alleinstellungsmerkmale eines WBTs liegen?
Zur Beantwortung dieser Frage beschäftigt sich die Arbeit grundlegend mit dem Begriff „Web-based Training“, den über die Zeit geänderten Rahmenbedingungen und den daraus resultierenden Implikationen für die Entwicklung von WBT-Autorensystemen. Mittels des gewählten Design-based Research (DBR)-Ansatzes konnte durch kontinuierliche Zyklen von Gestaltung, Durchführung, Analyse und Re-Design am Beispiel mehrerer eLearning-Projekte der Begriff WBT neudefininiert bzw. reinterpretiert werden, so dass sich der Fokus der Definition auf das konzentriert, was WBTs im Vergleich zu anderen Inhalten und Funktionen im Internet im Kern unterscheidet: dem Lehr-/Lernaspekt (nachfolgend Web-based Training 2.0 (WBT 2.0)).
Basierend auf dieser Neudefinition konnten vier Kernfunktionalitäten ausgearbeitet werden, die die zuvor genannten Herausforderungen adressieren und in Form eines Design Frameworks detailliert beschreiben. Untersucht und entwickelt wurden die unterschiedlichen Aspekte und Funktionen der WBTs 2.0 anhand der iterativen „Meso-Zyklen“ des DBR-Ansatzes, wobei jedes der darin durchgeführten Projekte auch eigene Ergebnisse mit sich bringt, welche jeweils unter didaktischen und vor allem aber technischen Gesichtspunkten erörtert wurden. Die dadurch gewonnenen Erkenntnisse flossen jeweils in den Entwicklungsprozess der LernBar ein („Makro-Zyklus“), ein im Rahmen dieser Arbeit und von studiumdigitale, der zentralen eLearning-Einrichtung der Goethe-Universität, entwickeltes WBT-Autorensystem. Dabei wurden die Entwicklungen kontinuierlich unter Einbezug von Nutzerfeedbacks (jährliche Anwendertreffen, Schulungen, Befragungen, Support) überprüft und weiterentwickelt.
Abschließend endet der letzte Entwicklungszyklus des DBR-Ansatzes mit der Konzeption und Umsetzung von drei WBT 2.0-Systemkomponenten, wodurch sich flexibel beliebige Web-Inhalte mit entsprechenden WBT 2.0-Funktionalitäten erweitern lassen, um auch im Kontext von offenen Lehr-/Lernprozessen durchgeführte Aktivitäten transparent, nachvollziehbar und somit überprüfbar zu machen (Constructive Alignment).
Somit bietet diese Forschungsarbeit einen interdisziplinären, nutzerzentrierten und in der Praxis erprobten Ansatz für die Umsetzung und den Einsatz von WBTs im Kontext offener Lehr-/Lernprozesse. Dabei verschiebt sich der bisherige Fokus von der reinen Medienproduktion hin zu einem ganzheitlichen Ansatz, bei dem der Lehr-/Lernaspekt im Vordergrund steht (Lernbedarf erkennen, decken und überprüfen). Entscheidend ist dabei, dass zum Decken eines Lernbedarfs sämtliche zur Verfügung stehenden Ressourcen des Internets genutzt werden können, wobei WBTs 2.0 dazu lediglich den didaktischen Prozess definieren und diesen für die Lehrenden und Lernende transparent und zugänglich machen.
WBTs 2.0 profitieren dadurch zukünftig von der zunehmenden Vielfalt und Verfügbarkeit von Inhalten und Funktionen im Internet und ermöglichen es, den Entwicklern von WBT 2.0-Autorensystemen sich auf das Wesentliche zu konzentrieren: den Lehr-/Lernprozess.
Landwirtschaft ist der Hauptmotor der westafrikanischen Wirtschaft und Kleinbauern liefern fast 70 % des Nahrungsmittelbedarfs. Traditionell wird hauptsächlich Regenfeldbau betrieben, der durch geringen Agrarinput und die Nutzung von einfachen Werkzeugen wie Hacke und Buschmesser gekennzeichnet ist. Die Ernteerträge sind gering und die Bodenfruchtbarkeit sinkt schnell nach einigen Anbaujahren. Infolgedessen werden Wald- und Weidefläche gerodet und die Landdegradation wird beschleunigt. Dies hat direkte Auswirkungen auf die landwirtschaftliche Produktivität und die Ernährungssicherheit der Kleinbauern.
Die vorliegende Arbeit hat sich das Ziel gesetzt, sozio-ökonomische und geo-ökologische Faktoren, die den Landnutzungswandel in zwei Agrarökosystemen der Atakora Gebirgskette steuern, aufzudecken. Schließlich sollen ortsangepasste Maßnahmen vorgeschlagen werden, um die Agrarökosysteme wiederherzustellen und ihre Dienstleistungen für Kleinbauern zu erhalten.
Haushaltsbefragungen und Gruppendiskussionen wurden während Geländeaufenthalten in den Jahren 2014 und 2015 in den Dörfern der beiden Ethnien durchgeführt. Die Landnutzung und ihr Wandel werden über knapp 30 Jahre anhand von Bildern des Satellitensystems LANDSAT aus den Jahren 1987, 2001 und 2015 ausgewertet. Eine überwachte Klassifikation nach dem „Maximum Likelihood“-Klassifkationsalgorithmus und Veränderungs-analysen wurden durchgeführt. Zum Erfassen der Variabilität der Agrarparameter der Böden wurden Bodenprofile nach dem Catena-Prinzip gegraben. Bodenproben wurden aus jedem Horizont genommen. Anschließend wurden einige physische Parameter und die Nährstoffgehalte vom Fachpersonal des bodenkundlichen Labors des Instituts für Physische Geographie (Geowissenschaften) bestimmt.
Innerhalb der knapp letzten dreißig Jahre (1987-2015) ist die natürliche Vegetation bei den beiden Ethnien zugunsten der Landwirtschaft und der bebauten bzw. vegetationsfreien Flächen zurückgegangen. Über die analysierten Zeiträume liegen mehr Flächen bei den Ditamari (47,24%) unter einer negativen Dynamik als bei den Éwé (36,41%). Die Untersuchung der Steuerungsfaktoren des Landnutzungswandels bringt heraus, dass der höhere Anteil an positiv veränderten Flächen bei den Éwé ist nicht durch bessere Landnutzungsstrategien begründet. Vielmehr stellt das Relief der begrenzende Faktor für die Ausdehnung der Ackerflächen und damit die bessere Erhaltung der natürlichen Vegetation bei den Éwé dar.
Die erste Annahme, dass Veränderungen in der Landnutzung die Landdegradation zur Folge haben, wird in den beiden Untersuchungsgebieten bestätigt. Die abnehmende Dichte der Vegetationsdecke begünstigt Prozesse der Flächen-, Rillen- und Rinnenspülung. Zudem werden die ökologischen Bodenfunktionen vermindert. Erscheinungen der Landdegradation bei den Ditamari sind die Ausdehnung von oberflächlich verkrusteten Arealen und die Verbreitung des Unkrautes Striga hermontica. Bei den Éwés tritt eine starke Profilverkürzung der Böden ein und das anstehende Gestein wird an mehreren Stellen freigelegt.
Die zweite Hypothese wird in Hinsicht auf die räumliche und ethnische Differenzierung der Folgen der Landdegradation bestätigt. Allerdings sind nicht, wie vermutet, die Ditamari verletzbarer als die Éwés. Die beiden Ethnien betreiben eine intensive Subsistenzwirtschaft und die Éwé entwickeln weniger Anpassungsstrategien als die Ditamari. Im Hinblick auf die globale Erwärmung könnte die Landdegradation in den beiden Gebieten fortschreiten und die Folgen auf der Landschaft und den Kleinbauern verschärfen. Die Éwé wären, anders als vermutet, verletzbarer als die Ditamari. Eine Fortschreitung der Landdegradation könnte bei den Kleinbauern Éwés langfristig den Zusammenbruch des Agrarökosystemen hervorrufen. Sie könnten langfristig die Grundlage ihrer Existenzsicherung verlieren.
Die Studie zeigt auf, dass traditionell, zurückgezogen lebende Völker wie die Ditamari das Agrarökosystem nachhaltiger bewirtschaften und angesichts der Landdegradation anpassungsfähiger sind als tief umgewandelte Gesellschaften wie die Éwés. Sie bringt heraus, dass Kleinbauern Westafrikas keinesfalls als eine Einheit betrachtet werden sollten. Jede Ethnie ist durch Merkmale gekennzeichnet, die ihre Gestaltung der Landschaft beeinflussen. Diese Vielfältigkeit und Besonderheiten der kleinbäuerlichen Gesellschaften müssen in der Entwicklungszusammenarbeit stärker berücksichtigt werden.
Hämophilie A ist eine X-chromosomal rezessiv vererbte Krankheit, die aufgrund von Mutationen innerhalb des Gens von Gerinnungsfaktor VIII (FVIII) zum funktionellen Defekt oder zum Fehlen des körpereigenen FVIII führt. FVIII zirkuliert als Heterodimer und besteht aus einer schweren Kette mit der Domänenstruktur A1-A2-B und einer leichten Kette mit der Domänenstruktur A3-C1-C2. Bei Patienten unter Prophylaxe wird durch regelmäßige Substitution mit rekombinanten oder aus Plasma gewonnenen FVIII-Präparaten die Hämostase wiederhergestellt. Allerdings entwickeln hierbei etwa 30% der Patienten mit einer schweren Hämophilie eine FVIII-spezifische Immunantwort in Form von neutralisierenden Antikörpern (Inhibitoren). Die sogenannte Immuntoleranz-Therapie (engl. immune tolerance induction therapy, ITI) ist bisher die einzige etablierte Therapie, die zu einer dauerhaften Eradikation der FVIII-Inhibitoren und Induktion von Toleranz gegenüber FVIII führen kann. Die Therapie beruht auf einer meist täglichen Gabe hoher FVIII-Dosen, welche sich, je nach Behandlungsdauer, über Wochen bis hin zu Jahren erstrecken kann. Bei etwa 30% der Patienten ist diese Therapie nicht erfolgreich. Für solche Patienten besteht die Gefahr lebensbedrohlicher, unkontrollierbarer Blutungen und erheblicher Gelenkschäden.
Die spezifische Ansteuerung des Membran-gebundenen Immunglobulin G (mIg) des B-Zellrezeptors (BZR) mithilfe von Immuntoxinen ist eine mögliche Option zur selektiven Eliminierung FVIII-spezifischer B-Zellen und somit zur Eradikation von FVIII-Inhibitoren. Solche Immuntoxine bestehen aus einer zellbindenden und einer zytotoxischen Domäne, welche nach Internalisierung zur Apoptose der Zielzelle führen soll. Da FVIII aufgrund der Größe als zellbindende Domäne ungeeignet ist, beschäftigt sich die vorliegende Arbeit mit der Entwicklung und Evaluierung alternativer Immuntoxine zur selektiven Eliminierung FVIII-spezifischer B-Zellen. Die FVIII-spezifische Immunantwort ist zwar polyklonal, jedoch vor allem gegen A2- und die C2-Domäne gerichtet. Aus diesem Grund wurden die humane A2- und C2-Domäne (hA2, hC2) als zellbindende Domäne verwendet und jeweils genetisch an eine verkürzte Version des Exotoxin A (ETA) aus Pseudomonas aeruginosa fusioniert, bei welcher die natürliche zellbindende Domäne entfernt wurde. Die rekombinanten Proteine wurden bakteriell produziert und im Anschluss an die Aufreinigung biochemisch charakterisiert. Während das bakterielle Expressionssystem für hA2-ETA nicht geeignet war, konnte hC2-ETA neben weiteren Kontrollproteinen mit korrekter Konformation der hC2-Domäne hergestellt und aufgereinigt werden.
Die Fähigkeit zur selektiven Eliminierung hC2-spezifischer B-Zellen wurde im weiteren Verlauf sowohl in vitro mithilfe einer hC2-spezifischen Hybridomazelllinie als auch ex vivo und in vivo mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen untersucht.
Durch Inkubation der hC2-spezifischen Hybridomazelllinie mit hC2-ETA konnten ca. 38 % der Zellen eliminiert werden. Weitere Untersuchungen der Zelllinie ergaben, dass diese keinen vollständigen funktionalen B-Zellrezeptor auf der Oberfläche exprimierte, welcher für die Bindung und die korrekte Internalisierung des Immuntoxins notwendig ist. Aufgrund dessen eignet sich diese Zelllinie nicht als Modell für eine genauere Analyse der in vitro Eliminierungseffizienz von hC2-ETA.
Weitere Analysen mithilfe von Splenozyten aus FVIII-immunisierten FVIII-knockout Mäusen haben jedoch gezeigt, dass durch ex vivo Inkubation der Splenozyten mit hC2-ETA, alle hC2-spezifischen B-Zellen vollständig, selektiv und konzentrations-abhängig eliminiert werden konnten. Auch die mehrfache Applikation von hC2-ETA in FVIII-immunisierten FVIII-knockout Mäusen führte bei der Hälfte der Tiere zur vollständigen Eliminierung aller hC2-spezifischen B-Zellen. Eine Reduktion des hC2-spezifischen Antikörpersignals konnte nach Gabe von hC2-ETA in allen behandelten Tieren beobachtet werden. Die unvollständige Eliminierung in der Hälfte der Tiere ist vermutlich auf die Präsenz hC2-spezifischer Antikörper zurückzuführen, die einen Teil des applizierten Immuntoxins neutralisiert haben, sodass nicht alle hC2-spezifischen Gedächtnis-B-Zellen erreicht und eliminiert werden konnten. Um die Eliminierungseffizienz von hC2-ETA weiter zu erhöhen, müsste das Behandlungsprotokoll geändert werden. Sowohl eine Verlängerung des Behandlungszeitraums als auch eine kombinierte Therapie aus FVIII und hC2-ETA sollte zu einer erhöhten Bioverfügbarkeit des Toxins und dadurch zu einer gesteigerten Eliminierungseffizienz führen.
Die Ausweitung des hier vorgestellten Ansatzes auf weitere FVIII-Domänen ist generell möglich, jedoch muss hierzu ein alternatives Expressionssystem aufgrund des eukaryotischen Ursprungs von FVIII in Betracht gezogen werden. Die hier vorgestellten Ergebnisse zeigen dennoch, dass FVIII-Domänen-Immuntoxine ein wirkungsvolles Mittel sind, um FVIII-spezifische B-Zellen selektiv zu eliminieren. Die Anpassung der Gabe von FVIII-Domänen-Immuntoxinen an die individuelle Immunantwort des Patienten könnte das Auftreten von Nebenwirkungen minimieren. Außerdem könnte eine kombinierte Therapie aus ITI und FVIII-Domänen-Immuntoxinen die Zeit bis zur Induktion von Toleranz verkürzen und die Chancen für den generellen Therapieerfolg erhöhen.
Die aktuelle Gesetzeslage fordert mit der im Rahmen der Gesundheitsreform 2007 eingeführten Versicherungspflicht und dem 2013 in Kraft getretenen Gesetz zur Beseitigung sozialer Überforderung bei Beitragsschulden in der Krankenversicherung eine Vollversicherung aller in Deutschland lebenden Personen. Die Erfahrungen aus medizinischen Versorgungseinrichtungen zeigen, dass dieses Ziel nicht erreicht wurde. Nach wie vor wird eine bedeutende Anzahl von Patienten ohne Krankenversicherung in Krankenhäusern, Arztpraxen und medizinischen Hilfseinrichtungen versorgt. In der vorliegenden Studie wird in einer praxisnahen Herangehensweise am Beispiel der Stadt Frankfurt am Main untersucht, wo die Ursachen dafür zu finden sind, wenn die Einbindung in das Regelsystem der Krankenversicherung nicht gelingt und wie sich dies auf die medizinische Versorgung der Betroffenen auswirkt.
Basierend auf einem qualitativen Studienkonzept wird das empirische Material mit Leitfadeninterviews erhoben und mit der qualitativen Inhaltsanalyse nach Gläser und Laudel ausgewertet. Die Auswahl der Interviewpartner erfolgt mittels Sampling über die Zusammenarbeit mit zwei medizinischen Hilfseinrichtungen als zentrale Kontakte im Forschungsfeld. Die 25 Patienteninterviews stellen eine exemplarische Auswahl an dort behandelten nichtversicherten Patienten dar. Die 21 Experteninterviews mit Gesprächspartnern aus den Arbeitsbereichen Hilfseinrichtungen, Krankenhäuser und Behörden bilden die unterschiedlichen Akteure und Sichtweisen im Handlungsfeld der Nichtversicherung ab. Mithilfe der qualitativen Inhaltsanalyse werden die erfassten Fälle rekonstruiert und auf ihre Kausalmechanismen hin analysiert.
Als Ergebnis der Untersuchung werden 13 Grundsituationen typischer Fälle von Nichtversicherung dargestellt und mit den strukturellen Rahmenbedingungen in Zusammenhang gebracht. Daraus werden die Entstehungsmechanismen von Nichtversicherung ersichtlich. Diese zeigen, dass das Fehlen der Krankenversicherung das Resultat einer multifaktoriellen Entwicklung ist. So wirken sich einerseits die individuellen Verhaltensweisen der Betroffenen sowie ihre jeweiligen Lebensum-stände, wie die berufliche Situation, die Wohnsituation, Herkunft, Aufenthaltsstatus und die gesundheitliche Situation, auf die Versicherungssituation aus. Andererseits kommt strukturellen Hürden eine wesentliche Bedeutung bei der Entstehung von Nichtversicherung zu. So lässt die Gesetzgebung in der Versicherungspflicht, dem Sozialleistungsbezug und im Aufenthaltsrecht Lücken, die zwar nicht notgedrungen zum Verlust der Krankenversicherung führen, aber in Wechselwirkung mit bestimmten Lebensumständen und Verhaltensweisen der einzelnen Personen die Eingliederung in das reguläre Versicherungssystem verhindern oder erschweren.
Im zweiten Teil der Studienergebnisse wird die Versorgungssituation für Patienten ohne Krankenversicherung beurteilt. Darin wird deutlich, dass Nichtversicherte im Vergleich zu regulär versicherten Personen schlechter medizinisch versorgt sind. Dies ist einem erschwerten Zugang zum Regelsystem der medizinischen Versorgung sowie den eingeschränkten Behandlungsmöglichkeiten im Hilfsnetz geschuldet. Trotz der gut ausgebauten Hilfestrukturen in Frankfurt am Main muss demnach die Versorgungs-situation für Nichtversicherte als unzureichend beurteilt werden.
Neben den Patienten sind auch die anderen Akteure von den Folgen des Nichtversichertseins betroffen. Dabei zeigen sich zwei gegensätzliche Perspektiven auf das Problemfeld. Auf der einen Seite stehen die hilfeleistenden Einrichtungen, die den Patienten eine medizinische Versorgung zukommen lassen, auf der anderen Seite die Kostenträger, die als Institutionen des Regelsystems diese medizinische Behandlung finanzieren. Die versorgenden Einrichtungen geraten in einen Konflikt zwischen ihrem Behandlungsauftrag, der sich aus der gesetzlich verankerten Behandlungspflicht und der ethischen Verantwortung den Patienten gegenüber ergibt, und dem wirtschaftli-chen Druck, der die Behandlungsmöglichkeiten bei unzureichender Finanzierung begrenzt. Die Kostenträger können ihre Zuständigkeit als Leistungsträger im Einzelfall prüfen und diese gegebenenfalls ablehnen. Da Nichtversicherte als unattraktive Kunden gelten, geht die Ablehnung meist mit einer Kostenersparnis einher und bedeutet somit für die Kostenträger keinen Nachteil. Die daraus entstehenden Versorgungsvakanzen werden wiederum vom Hilfsnetz aufgefangen.
Vor dem Hintergrund dieser Ergebnisse muss das Auftreten von Nichtversicherung als Problem gesehen werden, aus dem Handlungsbedarf hervorgeht, auch wenn die Gruppe der Nichtversicherten insgesamt nur einen kleinen Anteil an der Gesamtbevölkerung ausmacht. Die Zielsetzung dieser Studie ist es, eine fundierte Grundlage zu geben, auf der Lösungsansätze für die beschriebenen Konflikte erarbeitet werden können.
Die vorliegende Arbeit lässt sich in den Bereich Data Science einordnen. Data Science verwendet Verfahren aus dem Bereich Computer Science, Algorithmen aus der Mathematik und Statistik sowie Domänenwissen, um große Datenmengen zu analysieren und neue Erkenntnisse zu gewinnen. In dieser Arbeit werden verschiedene Forschungsbereiche aus diesen verwendet. Diese umfassen die Datenanalyse im Bereich von Big Data (soziale Netzwerke, Kurznachrichten von Twitter), Opinion Mining (Analyse von Meinungen auf Basis eines Lexikons mit meinungstragenden Phrasen) sowie Topic Detection (Themenerkennung)....
Ergebnis 1: Sentiment Phrase List (SePL)
Im Forschungsbereich Opinion Mining spielen Listen meinungstragender Wörter eine wesentliche Rolle bei der Analyse von Meinungsäußerungen. Das im Rahmen dieser Arbeit entwickelte Vorgehen zur automatisierten Generierung einer solchen Liste leistet einen wichtigen Forschungsbeitrag in diesem Gebiet. Der neuartige Ansatz ermöglicht es einerseits, dass auch Phrasen aus mehreren Wörtern (inkl. Negationen, Verstärkungs- und Abschwächungspartikeln) sowie Redewendungen enthalten sind, andererseits werden die Meinungswerte aller Phrasen auf Basis eines entsprechenden Korpus automatisiert berechnet. Die Sentiment Phrase List sowie das Vorgehen wurden veröffentlicht und können von der Forschungsgemeinde genutzt werden [121, 123]. Die Erstellung basiert auf einer textuellen sowie zusätzlich numerischen Bewertung, welche typischerweise in Kundenrezensionen verwendet werden (beispielsweise der Titel und die Sternebewertung bei Amazon Kundenrezensionen). Es können weitere Datenquellen verwendet werden, die eine derartige Bewertung aufweisen. Auf Basis von ca. 1,5 Millionen deutschen Kundenrezensionen wurden verschiedene Versionen der SePL erstellt und veröffentlicht [120].
Ergebnis 2: Algorithmus auf Basis der SePL
Mit Hilfe der SePL und den darin enthaltenen meinungstragenden Phrasen ergeben sich Verbesserungen für lexikonbasierte Verfahren bei der Analyse von Meinungsäußerungen. Phrasen werden im Text häufig durch andere Wörter getrennt, wodurch eine Identifizierung der Phrasen erforderlich ist. Der Algorithmus für eine lexikonbasierte Meinungsanalyse wurde veröffentlicht [176]. Er basiert auf meinungstragenden Phrasen bestehend aus einem oder mehreren Wörtern. Da für einzelne Phrasen unterschiedliche Meinungswerte vorliegen, ist eine genauere Bewertung als mit bisherigen Ansätzen möglich. Dies ermöglicht, dass meinungstragende Phrasen aus dem Text extrahiert und anhand der in der SePL enthaltenen Einträge differenziert bewertet werden können. Bisherige Ansätze nutzen häufig einzelne meinungstragende Wörter. Der Meinungswert für beispielsweise eine Verneinung muss nicht anhand eines generellen Vorgehens erfolgen. In aktuellen Verfahren wird der Wert eines meinungstragenden Wortes bei Vorhandensein einer Verneinung bisher meist invertiert, was häufig falsche Ergebnisse liefert. Die Liste enthält im besten Fall sowohl einen Meinungswert für das einzelne Wort und seine Verneinung (z.B. „schön“ und „nicht schön“).
1.3 übersicht der hauptergebnisse 5
Ergebnis 3: Evaluierung der Anwendung der SePL
Der Algorithmus aus Ergebnis 2 wurde mit Rezensionen der Bewertungsplattform CiaoausdemBereichderAutomobilversicherunge valuiert.Dabei wurden wesentliche Fehlerquellen aufgezeigt [176], die entsprechende Verbesserungen ermöglichen. Weiterhin wurde mit der SePL eine Evaluation anhand eines Maschinenlernverfahrens auf Basis einer Support Vector Machine durchgeführt. Hierbei wurden verschiedene bestehende lexikalische Ressourcen mit der SePL verglichen sowie deren Einsatz in verschiedenen Domänen untersucht. Die Ergebnisse wurden in [115] veröffentlicht.
Ergebnis 4: Forschungsprojekt PoliTwi - Themenerkennung politischer Top-Themen
Mit dem Forschungsprojekt PoliTwi wurden einerseits die erforderlichen Daten von Twitter gesammelt. Andererseits werden der breiten Öffentlichkeit fortlaufend aktuelle politische Top-Themen über verschiedene Kanäle zur Verfügung gestellt. Für die Evaluation der angestrebten Verbesserungen im Bereich der Themenerkennung in Verbindung mit einer Meinungsanalyse liegen die erforderlichen Daten über einen Zeitraum von bisher drei Jahren aus der Domäne Politik vor. Auf Basis dieser Daten konnte die Themenerkennung durchgeführt werden. Die berechneten Themen wurden mit anderen Systemen wie Google Trends oder Tagesschau Meta verglichen (siehe Kapitel 5.3). Es konnte gezeigt werden, dass die Meinungsanalyse die Themenerkennung verbessern kann. Die Ergebnisse des Projekts wurden in [124] veröffentlicht. Der Öffentlichkeit und insbesondere Journalisten und Politikern wird zudem ein Service (u.a. anhand des Twitter-Kanals unter https://twitter.com/politwi) zur Verfügung gestellt, anhand dessen sie über aktuelle Top-Themen informiert werden. Nachrichtenportale wie FOCUS Online nutzten diesen Service bei ihrer Berichterstattung (siehe Kapitel 4.3.6.1). Die Top-Themen werden seit Mitte 2013 ermittelt und können zudem auf der Projektwebseite [119] abgerufen werden.
Ergebnis 5: Erweiterung lexikalischer Ressourcen auf Konzeptebene
Das noch junge Forschungsgebiet des Concept-level Sentiment Analysis versucht bisherige Ansätze der Meinungsanalyse dadurch zu verbessern, dass Meinungsäußerungen auf Konzeptebene analysiert werden. Eine Voraussetzung sind Listen meinungstragender Wörter, welche differenzierte Betrachtungen anhand unterschiedlicher Kontexte ermöglichen. Anhand der Top-Themen und deren Kontext wurde ein Vorgehen entwickelt, welches die Erstellung bzw. Ergänzung dieser Listen ermöglicht. Es wurde gezeigt, wie Meinungen in unterschiedlichen Kontexten differenziert bewertet werden und diese Information in lexikalischen Ressourcen aufgenommen werden können, was im Bereich der Concept-level Sentiment Analysis genutzt werden kann. Das Vorgehen wurde in [124] veröffentlicht.
Für den Zugang zu sozialen Netzwerken - sei es ein klassisches soziales Netzwwerk oder eine objektspezifische Community - ist die Existenz eines Avatars obligatorisch. Die virtuelle Repräsentation bindet die User_innen dahinter als gestaltbares Interface-Objekt in das Kommunikationssystem ein. Der systemspezifische Avatar besteht dabei aus feststehenden Modulen, deren Anordnung von den User_innen unveränderbar ist so dass mit dem Zugang zum System die Annahme der medialen Uniformität ebenfalls obligatorisch einhergeht; sie standadisiert alle Avatare des zugehörigen Systems schablonenhaft. Durch das Füllen der Module der medialen Uniformität mit grafischen Informationen kann eine persönliche grafische Uniform generiert werden, die immer in Bezug zur grafischen Uniformität der jeweiligen Community steht...
Die Förderung von Fahrradmobilität und öffentlichem Verkehr ist ein wesentlicher Baustein zur Gestaltung einer ökologisch nachhaltigeren, sozial verträglicheren und ökonomisch tragfähigen Verkehrs- und Siedlungsentwicklung in Deutschland. Mit einer verbesserten intermodalen Verknüpfung werden beide Verkehrsträger attraktiver und somit häufiger genutzt. Öffentliche Verkehrsunternehmen gewinnen dadurch vergrößerte Einzugsbereiche von Haltestellen, können Spitzenbelastungen abfedern und verbessern ihr Image. Fahrradfahrenden ermöglicht die Kombination mit öffentlichen Verkehrsmitteln größere Reichweiten, was gerade auch in randstädtischen, suburbanen oder ländlichen Regionen bedeutsam werden kann. Letztlich leistet die Verknüpfung der beiden Verkehrsträger einen Beitrag zur Daseinsvorsorge und für den Klimaschutz.
Der Handlungsleitfaden wurde innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“ erarbeitet. Das Projekt wurde vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) aus Mitteln zur Umsetzung des Nationalen Radverkehrsplans gefördert.
Die Geschichte der europäischen Integration wird in der Regel als Erfolgsgeschichte erzählt, vor allem als wirtschaftliche Erfolgsgeschichte, die sich in Folge kluger und aus historischer Erfahrung getroffener Entscheidungen ergeben habe (vgl. Loth 2014; vgl. auch Mittag 2008). Der Zweite Weltkrieg habe endgültig gezeigt, dass das durch zahlreiche Nationalstaaten gekennzeichnete Europa, sollte es nicht zusammenarbeiten, zu verheerenden Konflikten neige. Und die Zusammenarbeit sei nicht nur politisch klug; sie zahle sich zusätzlich wirtschaftlich aus. So seien allen Teilnehmerstaaten auch in einem ganz ordinär materiellen Sinne Profiteure der europäischen Einigung, die in dieser Logik dann auch gar nicht weit genug gehen kann, bedingen sich hiernach doch das politisch Sinnvolle und das ökonomisch Erfolgreiche gegenseitig – und zwar genau in der Form der supranationalen Organisation, die die Europäische Union mittlerweile angenommen hat. Liest man einen Satz der Bundeskanzlerin Angela Merkel so, dann ist die europäische Integration nach Brüsseler Art deshalb alternativlos, weil es kein vergleichbares Erfolgsmodell gibt. Aus der zunächst durch das Leid des Krieges geprägten Bereitschaft zur Zusammenarbeit ist unter der Hand eine Art Sachzwang geworden, denn von der einmal eingeschlagenen Straße der Integration kann man in dieser Sicht nur unter erheblichen Wohlstandsverlusten und politischen Risiken abweichen.
In dieser Sachzwanglogik war allerdings die Euro-Krise nicht vorgesehen. Sie konnte im strengen Sinne auch gar nicht passieren, war doch die weitere Vertiefung der europäischen Union zur Währungsunion in den 1990er Jahren gerade damit begründet worden, dass derartige Krisen zukünftig ausgeschlossen seien (vgl. Tietmeyer 2005). Dass die Politik auf sie zunächst überrascht, fast panisch und dann durch konsequentes Vorantreiben der institutionellen und finanziellen Integration reagiert hat, zeigt auch, dass hier ein Denken vorherrscht, das nach dem Motto funktioniert, es könne doch nicht sein, was nicht sein dürfe. ...
Trotz zunehmend positiver Meldungen vom deutschen Arbeitsmarkt, die von einer "Entspannung der Lage" bis hin zu einer "Trendwende" reichen, herrscht eine anhaltend hohe Arbeitslosigkeit unter den wettbewerbsschwachen Arbeitsuchenden. Ein genauer Blick auf die aktuellen Zahlen verrät, dass der Anteil der Langzeitarbeitslosen an der Gesamtarbeitslosenzahl 42 % beträgt. Wiederum besitzt die Hälfte der arbeitslos gemeldeten Arbeitslosengeld II-Empfänger keine abgeschlossene Berufsausbildung, knapp ein Viertel keinen Schulabschluss. ...
Die 8. Fachtagung für Hochschuldidaktik der Informatik (HDI) fand im September 2018 zusammen mit der Deutschen E-Learning Fachtagung Informatik (DeLFI) unter dem gemeinsamen Motto "Digitalisierungswahnsinn? – Wege der Bildungstransformationen" in Frankfurt statt.
Dabei widmet sich die HDI allen Fragen der informatischen Bildung im Hochschulbereich. Schwerpunkte bildeten in diesem Jahr u. a.:
– Analyse der Inhalte und anzustrebenden Kompetenzen in Informatikveranstaltungen
– Programmieren lernen & Einstieg in Softwareentwicklung
– Spezialthemen: Data Science, Theoretische Informatik und Wissenschaftliches Arbeiten
Die Fachtagung widmet sich ausgewählten Fragestellungen dieser Themenkomplexe, die durch Vorträge ausgewiesener Experten und durch eingereichte Beiträge intensiv behandelt werden.
Adorno und die Kabbala
(2015)
Im neunten Band der Reihe geht Ansgar Martins kabbalistischen Spuren in der Philosophie Theodor W. Adornos (1903–1969) nach. Der Frankfurter Gesellschaftskritiker griff im Rahmen seines radikalen materialistischen Projekts gleichwohl auch auf "theologische" Deutungsfiguren zurück. Vermittelt durch den gemeinsamen Freund Walter Benjamin (1892–1940) stieß Adorno dabei auf das Werk des Kabbala-Forschers Gershom Scholem (1897–1982). Zwischen Frankfurt und Jerusalem entwickelte sich eine lebenslange Korrespondenz.
Für Adorno erscheint vor dem Hintergrund lückenloser kapitalistischer Vergesellschaftung jede religiöse Sinngebung in der Moderne als unmöglich. Der Tradition der jüdischen Mystik schreibt er hingegen eine innere Affinität zu dieser hoffnungslosen Logik des "Verfalls" zu. Sie scheint ihm zur unumgänglichen Säkularisierung religiöser Gehalte aufzufordern. Adornos kabbalistische Marginalien beziehen einen breiten Horizont jüdisch-messianischer Ideen ein. Er verleugnet dabei nie, dass es ihm um eine sehr diesseite Verwirklichung geoffenbarter Heilsversprechen zu tun ist: Transzendenz sei als erfüllte Immanenz, als verwirklichte Utopie zu denken. In diesem Anliegen sieht Adorno selbst jedoch gerade seine Übereinstimmung mit der Kabbala.
Adornos kabbalistische Motive, die auf Scholems Forschungen zurückgehen, werden hier ausführlich an seinen Schriften und Vorlesungen untersucht. In seinem Verständnis der philosophischen Tradition sowie im Modell der Metaphysischen Erfahrung suchte er etwa explizit Anschluss an Deutungen der Kabbala: Das unerreichbare Urbild der Philosophie sei die Interpretation der geoffenbarten Schrift. Wie säkularisierte heilige Texte wurden Werke von Beethoven, Goethe, Kafka oder Schönberg so zum Anlass für "mystische" Interpretationen. Deren detaillierte Untersuchung erlaubt, das viel beschworene jüdische Erbe von Adornos Philosophie zu konkretisieren und bedenkenswerte Einzelheiten von der Negativen Dialektik zur Ästhetik in den Blick zu nehmen.
Der 2‘-Desoxyguanosin-Riboschalter gehört zur unter Bakterien weit verbreiteten Klasse der Purin-Riboschalter. Allerdings wurden 2‘-Desoxyguanosin-bindende Riboschalter bisher ausschließlich in M. florum gefunden, damit stellt diese RNA eine Ausnahme unter den ansonsten verbreiteten Purin-Riboschaltern dar. In der vorliegenden Arbeit wurde ein NMR-Strukturmodell des IA-Aptamer-2‘-Desoxyguanosinkomplexes erstellt und anhand der mittels NMRSpektroskopie zugänglichen strukturellen Informationen sowohl Struktur und Dynamik des freien RNA-Aptamers als auch des 2‘-Desoxyguanosinkomplexes charakterisiert. Dabei wurde insbesondere der Einfluss von Mg2+ auf Struktur und Dynamik der jeweiligen Zustände sowie auf den durch 2‘-Desoxyguanosin induzierten Faltungsprozess untersucht.
Mg2+-Ionen modulieren die Faltungstrajektorien von sensorischen RNA-Domänen. Die Übertragbarkeit von Mg2+-abhängigen Charakteristika der RNA-Faltung innerhalb verschiedener Messmethoden ist durch die schlechte Vergleichbarkeit der relativen Konzentrationsverhältnisse eingeschränkt. Die NMR-spektroskopisch beobachtbaren Mg2+-Einflüsse sollten also unter besonderer Berücksichtigung der für NMR benötigten vergleichsweise sehr hohen RNAKonzentrationen mit Ergebnissen aus kalorimetrischen oder fluoreszenzspektroskopischen Messungen interpretiert werden. Die in der NMR-Spektroskopie üblichen hohen Probenkonzentrationen befinden sich in dem Regime, in dem auch der physikalische Effekt des verdrängten Volumens eine Rolle zu spielen beginnt. Demnach ist es für die RNA-Moleküle im NMR-Probenröhrchen bei Konzentrationen von 5-10 mg/ml auch ohne Zugabe von Mg2+ entropisch günstiger, kompakte Konformationen einzunehmen. Die Relevanz des Effekts des verdrängten Volumens für die RNA-Faltung unter NMR-Bedingungen und unter zellulären Bedingungen ist Gegenstand der aktuellen Forschung und wird in dieser Arbeit am Beispiel des IA-Aptamers diskutiert.
Der oft einzigartige Bindungsmodus ubiquitärer Metaboliten durch bakterielle Riboschalter (Montange and Batey, 2006) ermöglicht prinzipiell den Einsatz von RNA-Aptameren in vivo, ohne mit zellulären Proteinsystemen zu interferieren (Mulhbacher et al., 2010). Therapeutische Ziele sind beispielsweise die Anwendung von Riboschaltern gegen bakterielle Pathogene beziehungsweise gegen pathogene Bakterien selbst. Eine weitere Rolle wird RiboschalterElementen zukünftig als Bausteine in der synthetischen Biologie zukommen (Dixon et al., 2010; Knight, 2003; Topp and Gallivan, 2008). Hierfür ist es von grundlegender Bedeutung, Charakterisierung von Struktur als Basis für das Verständnis von Funktion unter zellulären Bedingungen zu etablieren. Im Rahmen einer Zusammenarbeit mit Robert Hänsel aus dem Arbeitskreis von Prof. Dr. Volker Doetsch wurde am Beispiel des IA-Aptamers und einer nichtnatürlichen Sequenzvariante gezeigt, dass eine strukturelle Charakterisierung von Riboschaltern mittels in cell NMR-Spektroskopie möglich ist. In Zusammenarbeit mit Karl von Laer aus der Arbeitsgruppe von Prof. Dr. Beatrix Suess wurden beide RNA-Aptamer hinsichtlich ihrer Funktion in einem biologischen Assay getestet. Die Ergebnisse dieser Experimente zeigten eine deutliche Korrelation von Struktur und Funktion in vivo, während Diskrepanzen zwischen Struktur in vitro und Funktion in vivo demonstriert werden.
Weiterhin wurde im Rahmen dieser Arbeit gezeigt, dass eine gewisse strukturelle Flexibilität der Bindungstaschen regulatorischer RNA-Motive für Selektion und Adaption während Evolution nötig ist. Beispielsweise wurde für den Guanin-Riboschalter gezeigt, dass der nicht-native Ligand 2‘-Desoxyguanosin zur Komplexbildung des Aptamers führt. Demnach könnte die Bindung von 2‘-Desoxyguanosin im Guanin-Riboschalter bereits evolutionär angelegt sein und die Entstehung des IA-Aptamers nach Genomreduktion der Mesoplasmen begünstigt haben. Das IA-Aptamer dagegen bindet Guanin nicht, stattdessen besitzt M. florum auf Guanin spezialisierte Sequenzvarianten dieses Riboschalters (Kim et al., 2007). Strukturell hochauflösende Einblicke in unterschiedliche Zustände der Bindungstasche im G-Aptamer-Thioguaninkomplex, die durch die Lösung der Kristallstruktur des GLoop-Aptamers ermöglicht wurden, unterstützen die Hypothese einer anpassungsfähigen Bindungstasche im G-Aptamer. Für B. subtilis wäre es interessant, die physiologische Bedeutung der Komplexbildung des G-Aptamers mit 2‘-Desoxyguanosin zu untersuchen.
So vielfältig das Studienangebot, so vielfältig sind auch die Studierenden der Goethe-Universität: Ob Bildungsbiographie oder soziale Herkunft, kultureller Hintergrund oder Lebensumstände—die Frankfurter Studierenden sind ein Spiegel der für Stadt und Region charakteristischen Diversität. Das bietet große Chancen für wechselseitiges Lernen, stellt die Universität aber auch vor Herausforderungen. Eine der größten dieser Herausforderungen ist, bei der Weiterentwicklung von Studium und Lehre die Bedürfnisse einer in sich heterogenen Studierendenschaft konstruktiv aufzugreifen. Neben einer regelmäßigen Rückmeldung der Studierenden (etwa im Rahmen der Lehrveranstaltungs- oder Studiengangsevaluation) und studentischem Engagement in universitären Gremien bedarf es hierfür einer fundierten Datenbasis. ...
Für Zwecke des privaten Konsums werden ständig Gegenwarts- und Zukunftsgüter bewertet und gehandelt. Ein zuverlässiges und umfassendes Maß für die allgemeine Kaufkraft des Geldes und deren Veränderung sollte diesem Grundsachverhalt Rechnung tragen. Im Unterschied zu konventionellen statistischen Verbraucherpreisindizes ist ein ökonomischer Lebenskostenindex intertemporal angelegt, da er die effektiven Konsumgüterpreise (Effektivpreise) über den Planungshorizont der privaten Haushalte bündelt. Ein Preisstabilitätsstandard, der diesen Zusammenhang ausblendet, ist tendenziell verzerrt und leistet einer asymmetrischen Geldpolitik Vorschub.
Effektivpreise sind Gegenwartspreise für künftigen Konsum, sie berücksichtigen Güterpreise und Zinsen bzw. Vermögenspreisänderungen, sind konsumtheoretisch und wohlfahrtsökonomisch fundiert und bilden die zentralen Bausteine für die Modellklasse der ökonomischen Lebenskostenindizes. Nutzentheoretisch gesehen sind Effektivpreise bewerteter Grenznutzen der letzten konsumierten Gütereinheit, und die daraus abgeleiteten Effektiven Inflationsraten sind intertemporale Grenzraten der Substitution.
Die Autoren entwickeln einen intertemporalen Lebenskostenindex auf der Grundlage des Konzepts der Effektivpreise und stellen empirische Zeitreihen und kohortenspezifische Szenarioanalysen für Deutschland vor.
Helmut Siekmann erläutert in seinem Beitrag die Einstandspflicht der Bundesrepublik Deutschland für die Deutsche Bundesbank und die Europäische Zentralbank. Dabei kommt er zu dem Schluss, dass weder eine „Haftung der Bundesrepublik Deutschland für Verluste der EZB noch eine Verpflichtung zur Auffüllung von aufgezehrtem Eigenkapital“ besteht.
Dieser Beitrag ist zuerst erschienen in: Festschrift für Theodor Baums zum siebzigsten Geburtstag, S. 1145-1179, Helmut Siekmann, Andreas Cahn, Tim Florstedt, Katja Langenbucher, Julia Redenius-Hövermann, Tobias Tröger, Ulrich Segna, Hrsg., Tübingen, Mohr Siebeck 2017
Über Scheinriesen: Was TARGET-Salden tatsächlich bedeuten : eine finanzökonomische Überprüfung
(2018)
Der TARGET-Saldo der Bundesbank beläuft sich gegenwärtig auf knapp 1 Billion Euro. Kritikern zufolge birgt dieser Umstand hohe Lasten und Risiken für den deutschen Steuerzahler und zeigt, dass Deutschland zu einem „Selbstbedienungsladen“ im Eurosystem geworden sei. Vor diesem Hintergrund erörtert das Papier im Detail, wie TARGET-Salden überhaupt entstehen und was sie finanzökonomisch bedeuten. Die wirtschaftspolitische Analyse kommt zu dem Schluss, dass - anders als von den Kritikern behauptet- unter den Bedingungen einer Währungsunion im Normalbetrieb - TARGET-Salden lediglich Verrechnungssalden ohne weitere Implikationen sind, die aber nützliche Informationen über ökonomisch tieferliegende, regionale Verschiebungen geben können. Unter dem Extremszenario eines Zerfalls der Währungsunion können TARGET-Salden zwar als offene Positionen interpretiert werden, deren spätere Erfüllung würde aber ähnlich dem Brexit von komplizierten politischen Verhandlungen abhängen, sodass über die Werthaltigkeit allenfalls spekuliert werden kann. Sollte man das Extremszenario für bedeutend halten, und politisches Handeln fordern, erscheinen zwei Lösungen sinnvoll. Beide Vorschläge führen zu einer institutionellen Stärkung der Eurozone: i) die Einführung einer Tilgungspraxis, wie sie im US-amerikanischen Fedwire-System angewandt wird. Dabei handelt es sich um eine rein fiktive Tilgung in Form einer Umbuchung auf einem gemeinsamen (Offenmarkt-)Konto bei der EZB; ii) die Bündelung aller monetären Aktivitäten bei der EZB, sodass eine regionale Abgrenzung von Zahlungsvorgängen entfällt (und damit die TARGET-Salden verschwinden), weil alle Banken in direkter Beziehung zu ein und derselben Zentralbank stehen und der Zahlungsverkehr direkt zwischen den beteiligten Banken stattfindet.
Aufbauend auf der ersten universitätsweiten Studierendenbefragung von 2012/13 wurde im Wintersemester 2016/17 im Rahmen einer fächer- und statusgruppenübergreifenden Arbeitsgruppe unter der Leitung der zu diesem Zeitpunkt amtierenden Vizepräsidentin für Studium und Lehre auf Grundlage der ersten Studierendenbefragung der Basisfragebogen für eine zweite universitätsweite Studierendenbefragung weiterentwickelt. Es flossen dabei außerdem Ergebnisse von aktuellen bundesweiten sowie an anderen Hochschulen erfolgten Studierendenbefragungen in den Arbeitsprozess. ...
An der Goethe-Universität wurden im Wintersemester 2017/18 alle Studierenden grundständiger Studiengänge und Masterstudiengänge für die zweite universitätsweite Studierendenbefragung eingeladen (n=45.343) und gebeten Fragen zu ihrer Lebenswirklichkeit und Studiensituation, ihrem soziodemographischen oder bildungsbiographischen Hintergrund zu beantworten sowie Studienbedingungen und Lehrqualität einzuschätzen.
Das Ziel des vorliegenden Gesamtberichts ist die Dokumentation der universitätsweiten Befragungsergebnisse. Insgesamt konnten Antworten von 10.797 Studierende (Rücklauf 24%) in die Auswertungen aufgenommen werden. ...
Das Ziel der vorliegenden Arbeit war es, MALDI-Massenspektrometrie als robuste Analysenmethode für die quantitative Analyse niedermolekularer Verbindungen aus komplexen biologischen Matrizes zu etablieren. Zu Beginn der Arbeit wurden drei typische Fragestellungen im Bereich der Lebensmittelanalytik, der medizinischen Forschung und der klinischen Chemie ausgewählt, um die Methodik anhand dieser Modellsysteme zielgerichtet zu entwickeln und zu bewerten. Für jede dieser Fragestellungen wird routinemäßig ein hoher Probendurchsatz verlangt und damit werden hohe Anforderungen an die Probenvorbereitung gestellt, da diese einfach, schnell, reproduzierbar, Matrix-tolerant und automatisierbar sein muss um die Weiterentwicklung zur Hochdurchsatzanalytik zu erlauben.
Der quantitative Nachweis von Melamin und seinen Derivaten wurde aufgrund des Aufkommens von Milchprodukten, die mit diesen Verbindungen kontaminiert waren, ein wichtiger Bestandteil der Analytik dieser Lebensmittel. Insbesondere an diesem Beispiel zeigte sich der Vorteil des Einsatzes von MALDI-Massenspektrometrie zur Analyse kleiner Moleküle. Aufgrund der höheren Toleranz gegenüber Puffern und Salzen konnte die Probenvorbereitungszeit der für die FDA entwickelten Methode zur Quantifizierung von Melamin in Milchpulver mittels LC-ESI von ca. 140 min auf 90 min reduziert werden, da auf die zeitaufwendige Flüssigchromatographie verzichtet werden konnte. So wurde Melamin mit einem LLOQ von 0,5 ppm quantifiziert, was unterhalb der Vorgaben der WHO (2,5 ppm in Milichpulver und 1 ppm in Babynahrung) lag. Cyanursäure, ein Derivat von Melamin welches für die Bildung schwerlöslicher Komplexe in der Niere mitverantwortlich gemacht wird, konnte ebenfalls mit der entwickelten MALDI-MS Methode quantifiziert werden. Allerdings war die ermittelte Bestimmungsgrenze mit 15 ppm um den Faktor 30 schlechter als bei Melamin. Die Nachweisgrenze bei MALDI-MS ist stark von der MALDI-Matrix abhängig und die Verwendung von Sinapinsäure war eine gute Kompromisslösung, um die Analyten in einem Spot im positiven und negativen Reflektormodus zu analysieren. Allerdings wurde diese Matrix zur Analyse von Analyten im positiven Reflektormodus entwickelt. Bislang wurden nur wenige Matrizes für MALDI-MS im negativen Reflektormodus beschrieben, um z.B. Säuren besser nachweisen zu können. Forschung in diesem Bereich wird neue Möglichkeiten zur Detektion negativ geladener kleiner Moleküle ergeben.
Des Weiteren wurden im Rahmen dieser Arbeit auch Lösungen für klinische Fragestellungen wie etwa den Nachweis von Methylphenidat im Plasma und Gehirn von Ratten oder der Dried Blood Spot Analytik entwickelt. Bei beiden Methoden wurde jeweils nur eine einfache Flüssig-Flüssig-Extraktion zur Probenvorbereitung angewendet und sie ließen sich sehr gut auf Realproben übertragen.
Methylphenidat konnte im Plasma im Konzentrationsbereich von 0,1-40 ng/mL und im Hirnhomogenat im Konzentrationsbereich von 0,4-40 ng/mL quantifiziert werden, was gut im Konzentrationsbereich der Realproben von mit Methylphenidat gefütterten Ratten lag. Dazu standen das Plasma und die Gehirne von fünf Ratten zur Verfügung. Es wurde eine lineare Korrelation zwischen der MPH-Konzentration im Gehirnhomogenat und im Plasma gefunden, was basierend auf den bis dato bekannten Literaturergebnissen ein zu erwartendes Ergebnis war, aber zukünftig mit einer größeren Anzahl von Versuchstieren verifiziert werden sollte. Während der Methodenentwicklung war auch bei diesem Projekt die Auswahl der MALDI-Matrix ausschlaggebend für den Erfolg der Messungen. Im MALDI-Massenspektrum interferierte das Signal des Natriumaddukts von CHCA mit dem Signal von MPH. Für dieses Problem kamen zwei mögliche Lösungen in Betracht. Erstens die Quantifizierung mit ClCCA als MALDI-Matrix, da hier keine Interferenzen auftraten. In ersten Vorversuchen konnte MPH so in einem Konzentrationsbereich von 1-48 ng/mL mit einer exzellenten Linearität von R2=0,9992 quantifiziert werden. Eine zweite mögliche Problemlösung war die Verwendung von Tandem-Massenspektrometrie. Hierzu wurden Fragmentionen-Massenspektren der überlagerten Signale aufgenommen. MPH und der verwendete interne Standard MPH-d9 zeigten dabei spezifische Fragmentionensignale, über die quantifiziert wurde. Da die Sensitivität um den Faktor 100 im Vergleich zu MS-Spektren von CHCA und ClCCA gesteigert werden konnte, wurde die weitere Methodenentwicklung basierend auf der Tandem-Massenspektrometrie mit der MALDI-Matrix CHCA durchgeführt. Überdies sind MS/MS-Versuche unter Verwendung von ClCCA als MALDI-Matrix für kleine Moleküle sehr erfolgsversprechend und sollten in weiteren Forschungsarbeiten durchgeführt werden.
Die Dried Blood Spot Technik als alternative Probenvorbereitung bietet eine Reihe von Vorteilen, wie etwa den einer einfacheren Lagerung und eines einfacheren Transports einer großen Menge von Proben. Darüber hinaus werden nur wenige Mikroliter Blut verwendet, was vorteilhaft ist bei z B. klinischen Studien oder dem Therapeutic Drug Monitoring. Diese Art der Probennahme ist somit eine perfekte Ergänzung für weitere quantitative Analysen von Methylphenidat in Rattenblut. Den Ratten würden nur wenige Mikroliter Blut entnommen werden, was ihr Überleben sichert und der Transport der Proben auf dem Postweg wäre wesentlich einfacher. Um eine allgemein verwendbare DBS-MALDI-MS-Methode zu entwickeln, wurden neben Methylphenidat auch bekannte Analyten aus dem Bereich des Dopings sowie Lamotrigin, Coffein und Theophyllin als Beispiele für das Therapeutic Drug Monitoring verwendet. Es wurden verschiedene Lösungsmittel zur Extraktion eingesetzt, wobei sich eine Kombination aus Methyl-tert-Butylether und Ethanol, sowie Aceton als am besten geeignet erwies. Einige Analyten wie Coffein, Theophyllin und Lamotrigin wurden bis zu einer Konzentration von 0,5 μg/mL quantifiziert. Diese Bestimmungsgrenze ist bei Analyten aus dem Bereich des Dopings wie z.B. Salbutamol, Methylphenidat oder Clenbuterol, deren therapeutisch wirksame Plasmakonzentration im Bereich von wenigen Nanogramm pro Milliliter Blut liegt, um den Faktor 15-500 zu hoch. Diese Analyten waren bis zu einer Konzentration von 5 μg/mL im Blut mittels MALDI-MS problemlos nachweisbar. Um die Sensitivität zu erhöhen, ist es allerdings sinnvoll, die Extraktion zukünftig für die einzelnen Analyten zu optimieren, sie mittels Festphasenextraktion oder LC anzureichern und MS/MS-Spektren aufzunehmen. Für die Analyten Coffein, Theophyllin und Lamotrigin, deren therapeutisch wirksame Plasmakonzentration im ein- bis zweistelligen Mikrogramm-pro-Milliliter Bereich liegt, eignete sich die entwickelte Methode sehr gut. Es wurde eine Methodenvalidierung durchgeführt, wobei die validierten Parameter den Vorgaben der FDA entsprachen.
Da die Auswahl der MALDI-Matrix bei den verschiedenen Methodenentwicklungen jeweils ein kritischer Faktor war, wurden abschließend eine Auswahl von Analyten mit einer Molekülmasse bis ca. 600 Da mit verschiedenen MALDI-Matrizes präpariert. Ein Großteil der Analyten wurde am sensitivsten mit ClCCA nachgewiesen. Im Rahmen dieser Versuche wurde auch erstmals ein Strukturanalogon von ClCCA, und zwar ClCCA-Tetrazol, als alternative MALDI-Matrix eingesetzt, bei welchem die Carboxylgruppe durch einen Tetrazolring ausgetauscht wurde. Diese zeigte eine sehr homogene Kristallisation und für einige Analyten eine bis zu Faktor 3 höhere Signalintensität im Vergleich zu ClCCA. Außerdem war auffällig, dass einige Analyten unter bestimmten Präparationsbedingungen wie z B. der Graphite Supported Preparation sensitiver mittels MALDI-MS nachweisbar waren. Bei anderen Analyten verschlechterten sich die Analysenergebnisse. Graphit verändert stark die Kristallisation der MALDI-Matrix und es wird vermutet, dass sich dies auf den Einbau der Analyten in die Matrixkristalle auswirkt. Es konnte bislang aber noch nicht abschließend geklärt werden, wie genau die Präparation der Proben Einfluss auf den Einbau der Analyten in die Matrix nimmt. Eine Untersuchung dieser Phänomene sollte daher Gegenstand weiterer Forschungsprojekte sein.
Zusammenfassend stellt die MALDI-Massenspektrometrie eine schnelle und robuste Methode zur Quantifizierung einer Vielzahl kleiner Moleküle in komplexen biologischen Matrizes dar.
Margarete Steffin blieb es, von wenigen Ausnahmen abgesehen, versagt, ihr eigenes literarisches Werk zu Lebzeiten veröffentlicht zu sehen. Im Dezember 1936 druckte die Zeitschrift Das Wort das Lied des Schiffsjungen aus ihrem Theaterstück für Kinder Wenn er einen Engel hätte, im Juli des folgenden Jahres folgte ein Abdruck des zweiten Bildes dieses Stücks in der Internationalen Literatur. Ferner erschien im Monatsheft des Deutschen Hauses Agra Die Terrasse ein Reisebericht von ihr über das Sanatoriumsleben auf der Halbinsel Krim. Jedoch gelang es ihr trotz intensiver Bemühungen nicht, weitere literarische Texte zu publizieren...
Es existieren keine Vergleichsstudien, die den Einfluss eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge, tiefen Nackenkniebeuge und in der maschinengeführten Viertel-Nackenkniebeuge bis zu einem Kniegelenkwinkel von 120 ° auf die Entwicklung der Schnellkraftleistung, die Technikausführung, den Beschleunigungsablauf und die willkürliche neuromuskuläre Aktivierungsfähigkeit im Countermovement Jump (CMJ) sowie die winkelspezifische Entwicklung des isometrischen Maximal- und Explosivkraftvermögens der Beinextensoren untersucht haben. Aus diesem Grund wurden in zwei Forschungsprojekten an 23 weiblichen und 36 männlichen Sportstudierenden (24,11 ± 2,88 Jahre) die Auswirkungen eines periodisierten Maximalkrafttrainings in der tiefen Frontkniebeuge (Gruppe FKB, n = 20), tiefen Nackenkniebeuge (Gruppe NKB, n = 20) und der Viertel-Nackenkniebeuge bis 120-Grad-Kniegelenkwinkel (Gruppe NKB¼, n = 19) auf die Schnellkraftleistung im Squat Jump (SJ) und CMJ untersucht. Die Ausführung des CMJ wurde mit einer Digitalkamera aufgenommen, um die jeweils fünf besten Sprünge aus den Eingangs- und Ausgangstests einer Bewegungsanalyse zu unterziehen. Zu diesem Zweck erfolgte die Analyse und Auswertung der Hüft- und Kniegelenkwinkel im Umkehrpunkt des CMJ von insgesamt 740 Sprüngen. Des Weiteren wurden elektromyographische (EMG-)Ableitungen von Vastus medialis, Vastus lateralis,Rectus femoris, Biceps femoris und Erector spinae während der Ausführung des CMJ vorgenommen. Die Parallelisierung der drei Versuchsgruppen erfolgte auf Basis der Sprunghöhen im CMJ. Zusätzlich wurde eine Kontrollgruppe (K, n = 16) gebildet (Alter: 24,38 ± 0,50 Jahre)...
In den letzten Jahren findet die Wirkung von Polyphenolen auf den Alterungsprozess oder zur Behandlung von Krankheiten immer mehr Beachtung. Das Ziel dieser Arbeit war die Aufklärung der Wirkmechanismen der Polyphenole Gossypol, Curcumin und Quercetin, um Hinweise für neue oder verbesserte Therapieansätze zu erhalten. Die dazu durchgeführten Untersuchungen lieferten folgende Ergebnisse:
1. Der Ascomycet "P. anserina" eignet sich als Modellorganismus zur Untersuchung der Wirkmechanismen verschiedener Polyphenole, da die bereits aus der Literatur bekannten Effekte auf das Überleben höherer Organismen auch in "P. anserina" beobachtet wurden.
2. Die Mitochondrienfunktion spielt auf unterschiedliche Art eine Rolle in der Kompensation von Dysfunktionen oder Stressbedingungen in der Zelle und wirkt somit positiv auf die Regulation der Lebensspanne von "P. anserina". In der "PaSod3"-Deletionsmutante wurde eine Verschiebung der mitochondrialen Atmung von einer Komplex I-abhängigen hin zu einer vermehrt Komplex II-abhängigen Atmung festgestellt. Die damit verbundene Abnahme des mitochondrialen Membranpotentials dient neben der bereits bekannten hohen Superoxid-Menge als Signal zur Mitophagie-Induktion. Auch die Anpassung der Mitochondrienfunktion durch die erhöhte Bildung von mtRSCs, wie im Falle von Gossypol oder Quercetin, kann zur Kompensation von Dysfunktionen beitragen bzw. sie abschwächen.
3. Es gibt keinen grundlegenden gemeinsamen Wirkmechanimus der drei untersuchten Polyphenole. Zwar spielt Wasserstoffperoxid bei verschiedenen Stoffen eine Rolle, aber nicht bei allen. Zusätzlich wurde gezeigt, dass Wasserstoffperoxid abhängig von der vorherrschenden Konzentration wirkt und daher auch keine Allgemeingültigkeit des Effektes vorherzusagen ist. In niedrigen Konzentrationen sorgt Wasserstoffperoxid z. B. für eine Induktion der Autophagie und damit einhergehende eine Lebensverlängerung. Im Gegensatz dazu wirken hohe Wasserstoffperoxid-Konzentrationen lebensverkürzend und lösen verschiedene Formen von Zelltod aus.
4. Die Curcumin-vermittelte Langlebigkeit wurde das erste Mal in Verbindung mit einer funktionellen Autophagie gebracht. Im Detail führt die Behandlung mit Curcumin durch eine PaSOD1-abhängige leichte Erhöhung der Wasserstoffperoxid-Menge zu einer Induktion von nicht-selektiver Autophagie. Die induzierte Autophagie ist Ursache der Lebensverlängerung durch Curcumin.
5. Gossypol wirkt in Abhängigkeit der mitochondrialen Permeabilitäts-Transitionspore bzw. von ihrem Regulator Cyclophilin D. Hierbei verstärkt die deutlich erhöhte Wasserstoffperoxid-Menge wahrscheinlich die Induktion von programmiertem Zelltod. Gleichzeitig wird eine cytoprotektive Form von Autophagie und ein scheinbar ATG-unabhängiger Abbau von Mitochondrien induziert.
6. Quercetin wirkt in "P. anserina" abhängig vom Methylierungs-Status. Untersuchungen mit Mutanten der "O"-Methyltransferase PaMTH1 ergaben die Notwendigkeit der Anwesenheit von PaMTH1 für den lebensverlängernden Effekt von Quercetin. Analysen mit dem methylierten Derivat Isorhamnetin verdeutlichten diese Abhängigkeit und zeigten zudem, dass Quercetin sowohl in der methylierten als auch unmethylierten Form Effekte hervorruft. Jedoch sind nur die Effekte des unmethylierten Quercetin unabhängig von der Lebensverlängerung und eher schädlich für die Zelle.
In dieser wirtschaftsphilosophischen Arbeit wird die fundamentale Bedeutung einer realistischen Gründe-Perspektive für die Erklärung und Beurteilung ökonomischer Praxis herausgestellt. Die Gründe-Perspektive bezieht sich in systematisierender Form auf alltägliche Interpretations- und Verstehensleistungen und greift zur Erklärung ökonomischer Sachverhalte auf Zuschreibungen mentaler Zustände zurück.
In Abgrenzung von einer Nicht-Gründe-Perspektive, die einer Vielzahl ökonomischer Erklärungsansätze, z.B. experimentell verhaltensökonomischer, behavioristisch orientierter neoklassischer oder evolutionärer Art, zugrunde liegt, wird betont, dass das Geben und Einfordern von Gründen in der ökonomische Sphäre in explanativer, prognostischer und normativer Hinsicht von großer Relevanz ist.
Ökonomische Grundbegriffe wie Präferenz, Axiom oder Nutzen werden thematisiert und deren Stellenwert innerhalb ökonomischer Theorien wird herausgestellt. Die behavioristische Fokussierung auf beobachtbare Wahlhandlungen wird in den Kontext naturalistischer Tendenzen in der Ökonomik gestellt. Dabei werden insbesondere wissenschafts- und erkenntnistheoretische Aspekte unter Bezugnahme auf die Philosophie des Geistes angeführt. Es zeigt sich, dass der Ökonom und Philosoph Don Ross einen in Abgrenzung zu Psychologie und experimenteller Verhaltensökonomik bestimmten Wahlbegriff auf aggregierter Ebene vertritt, unter anderem durch Bezug auf Dennetts Theorie intentionaler Einstellung und Möglichkeiten der Mustererkennung. Im Gegensatz dazu stehen Positionen, die mentale Zustände durch Bezug auf die Kognitionsforschung, stellenweise auch die Neuroökonomik, als real ansehen und für eine Erklärung von Präferenzen heranziehen wollen.
Unter Bezug auf die Position Nida-Rümelins wird die wirtschaftsphilosophische Relevanz von Kohärenz, struktureller Rationalität und einem Gründe-Realismus herausgestellt. Der Bezug auf lebensweltliche Gewissheit und formale Eigenschaften „alltagspsychologischer“ Zugänge soll eine bestimmte Gründe-Perspektive stützen. In welcher Hinsicht eine solche Stützung gerechtfertigt werden kann, wird unter anderem durch Bezug auf wissenschaftliche Theorien zur Alltagspsychologie (folk psychology) dargestellt. Die Vielfalt von Gründen, aus denen ökonomische Akteure handeln und die Personen auch in ökonomischen Kontexten prinzipiell verfügbar sind, wird unter Berücksichtigung spezifischer ökonomischer Rollen betont. Abschließend wird die soziale Bedingtheit von Gründen und die immanente Normativität der ökonomischen Praxis thematisiert. Die Möglichkeit einer normativen Rekonstruktion der Wirtschaftssphäre wird anhand der Theorie sozialer Freiheit von Axel Honneth diskutiert.
Der digitale Wandel wirkt sich auf das alltägliche Leben in der modernen Lebenswelt im 21. Jahrhundert aus. Ob im Berufs- oder Privatleben, digitale Medien sind nicht mehr aus dem alltäglichen Leben wegzudenken und sie erleichtern das Leben maßgeblich.
E-Learning wird insbesondere in der Erwachsenenbildung benutzt und diese Branche "boomt". Umstritten ist dennoch, ob digitale Medien und E-Learning in Schulen eingesetzt werden sollten und ob ein Lernen und Lehren mit neuen Medien sinnvoll ist. Derzeitig ist keine bundesweite einheitliche Lehrerausbildung bezüglich des Umgangs mit digitalen Medien im Kontext Lehren und Lernen und den damit verbundenen Herausforderungen vorhanden.
Es stellt sich die Frage, wie neue Medien im Unterricht verwendet werden und welche Aspekte beim Lehren zu beachten sind.
Das Hodgkin Lymphom besteht aus zwei verschiedenen Typen, dem klassischen Hodgkin Lymphom (cHL) mit einem Anteil von 95% und dem nodulären lymphozytenprädominanten Hodgkin Lymphom (NLPHL). Letzteres kann sehr unterschiedliche histopathologische Wachstumsmuster zeigen, die nach Fan et al. grob in ein typisches knotiges (Muster A) und in atypische diffuse Wachstumsmuster (Muster C und E) unterteilt werden können. Patienten mit einem NLPHL, das zum diffus wachsenden Subtyp zählt, präsentieren sich häufiger in klinisch fortgeschrittenen Stadien als jene Patienten mit einem NLPHL, das ein knotiges Wachstumsmuster zeigt. Im Gegensatz dazu präsentiert sich das T-Zell/Histiozytenreiche großzellige B-Zell Lymphom (THRLBCL) in einem fortgeschrittenen Stadium mit einer oftmals schlechten Prognose. NLPHL vom diffusen Typ weisen starke Ähnlichkeiten mit dem THRLBCL sowohl in Bezug auf Histomorphologie als auch klinische Eigenschaften auf und sind dadurch manchmal nur schwer voneinander zu unterscheiden.
Das Wachstumsmuster eines Tumors hängt unter anderem von der Verteilung der Blutgefäße im Tumorgewebe ab. Viele aktuelle Studien weisen darauf hin, dass die Gefäßneubildung (Angiogenese) eine wichtige Rolle in der Entwicklung von hämatologischen Tumoren spielt. Durch diesen Prozess kann der Tumor zu ausreichend Sauerstoff und Nährstoffen gelangen, um invasiv zu wachsen und zu metastasieren. Die Gefäßdichte ist ein anerkannter Marker für die Auswertung von Gefäßneubildung in verschiedenen Tumoren.
Ein Ziel der Arbeit bestand darin, Parameter der Angiogenese, u.a. die Gefäßdichte und den queren Gefäßdurchmesser, in verschiedenen Subtypen des NLPHL und in THRLBCL im Hinblick auf eine mögliche Unterscheidbarkeit des diffusen NLPHL und des THRLBCL zu untersuchen sowie sie mit anderen Typen von malignen Lymphomen und reaktiven Lymphadenitiden (LA) zu vergleichen.
Von T-Lymphozyten ist bekannt, dass sie mit den Tumorzellen in Lymphomen in engem Kontakt stehen und einen nicht unerheblichen Anteil des Tumormikromilieus bilden. Die CD4+ Lymphozyten treten gewöhnlich über Gefäße, den hochendothelialen Venolen (HEVs), in den Lymphknoten ein.
Ein weiteres Ziel der Arbeit war es, eine mögliche Korrelation zwischen dem TLymphozyten-Zustrom und der Tumormorphologie in den betroffenen Lymphknoten zu untersuchen, um herauszufinden, ob dies die unterschiedliche Zusammensetzung im Mikromilieu der Lymphome erklären kann. Als Maß für den Zustrom wurde die Anzahl der intravaskulären T-Lymphozyten herangezogen. Zum Vergleich wurden weitere maligne Lymphome, die ein prominentes Tumormikromilieu besitzen, untersucht.
Im diffusen NLPHL und THRLBCL fanden wir eine niedrigere Gefäßdichte mit einer diffusen Blutgefäßverteilung. Im Gegensatz dazu zeigte das NLPHL mit einem typischen Wachstumsmuster, das cHL vom gemischtzelligen Typ (cHL MC) und das Angioimmunoblastische Lymphom (AITL) in den interfollikulären Arealen eine verstärkte Gefäßbildung. Es zeigte sich in allen Subtypen des NLPHL eine signifikant geringere Gefäßdichte, verglichen mit dem AITL oder den LA Fällen. LA wiesen insgesamt die höchste interfollikuläre Gefäßdichte auf. Das THRLBCL zeigte die niedrigste Gefäßdichte von allen malignen Lymphomen, die untersucht wurden, allerdings war der Vergleich von THRLBCL und den verschiedenen Subtypen des NLPHL nicht signifikant. Wir konnten zeigen, dass die diffusen Subtypen des NLPHL und das THRLBCL ein ähnliches Wachstumsmuster der Blutgefäße mit einer verminderten Gefäßdichte und nicht mehr identifizierbaren follikulären Bereichen vorweisen, im Gegensatz zu den beibehaltenen follikulären Mustern, die wir im typischen NLPHL fanden. Die Anzahl der intravaskulären T-Zellen war am höchsten im cHL MC sowie im typischen NLPHL. Signifikant geringer fielen die intravaskulären TLymphozyten-Werte im THRLBCL im Vergleich mit dem typischen NLPHL Muster A, C und dem cHL MC aus.
Da die LA Fälle eine hohe interfollikuläre Gefäßdichte und kleine Gefäßdurchmesser zeigten, kann man davon ausgehen, dass die Gefäße durch die schnell anschwellenden Keimzentren komprimiert wurden. In den atypischen NLPHL und THRLBCL Fällen lassen die geringe Gefäßdichte und relativ große Gefäßdurchmesser eine langsame Dehnung des Gefäßgerüstes des Lymphknotens annehmen. Die Resultate der T-Zell Quantifizierung legen den Schluss nahe, dass die relativ geringe Anzahl von intravaskulären T-Lymphozyten im THRLBCL zusammen mit einer geringen Gefäßdichte möglicherweise verantwortlich ist für die gewöhnlich relativ geringe Anzahl an T-Lymphozyten pro Fläche und hierdurch die hohe Anzahl an Makrophagen im Mikromilieu im THRLBCL hervorgerufen wird. Dies könnte im Zusammenhang stehen mit einer absolut verminderten T-Lymphozytenzahl im Blut oder einem reduzierten Eintritt der T-Lymphozyten in den Lymphknoten.
Zielsetzung: Beteiligung von Medizinstudierenden im Rahmen der konzeptionellen Entwicklung eines zielgruppenspezifischen und attraktiven allgemeinmedizinischen Lehrangebots im ländlichen Raum.
Methodik: Es wurde ein Fragebogen entwickelt, der die Bewertung der Studierenden hinsichtlich des aktuellen Ablaufs ihres Studiums, den späteren Berufswunsch sowie die Anforderungen an ein zu entwickelndes allgemeinmedizinisches Schwerpunktprogramm im ländlichen Raum erfasst. Mittels einer Online-Befragung wurden im Sommer 2015 alle Medizinstudierende ab dem vierten vorklinischen Semester (n=2.150) der Goethe-Universität Frankfurt einmalig befragt. Die statistische Auswertung erfolgte primär deskriptiv. Die persönliche Einstellung hinsichtlich der Bereitschaft, als Hausarzt tätig zu werden, wurde auf statistische Signifikanz überprüft. Zudem wurde erhoben, ob ein messbarer Zusammenhang zwischen der eigenen Herkunft und dem späteren Wunscharbeitsort besteht.
Ergebnisse: Von insgesamt 2.150 kontaktierten Studierenden nahmen 617 an der Befragung teil (Rücklaufquote=28,7%). Die Ergebnisse repräsentieren eine große Bandbreite an Ideen und Anregungen, die sowohl die Meinung von Befürwortern als auch eher kritisch gegenüber der Lehre in der Allgemeinmedizin eingestellten Medizinstudierenden widerspiegeln. Von dem geplanten Schwerpunktprogramm erwarten die Studierenden einen starken Praxisbezug ebenso wie das Kennenlernen administrativer sowie wirtschaftlicher Hintergründe zum Führen einer Praxis.
Schlussfolgerungen: Durch die Einbeziehung der Zielgruppe am Entwicklungsprozess bestand die Möglichkeit, das zu entwickelnde Schwerpunktprogramm auf die späteren Teilnehmer passgenauer zuzuschneiden. Zudem ist zu erwarten, dass die Beteiligung der Studierenden zu einer höheren Akzeptanz des Programms führt. Die gewonnenen Ergebnisse zur Gestaltung eines Lehrangebots können als Orientierung für die mögliche Entwicklung ähnlicher Schwerpunktprogramme an anderen medizinischen Fakultäten dienen.
Die forensische Entomologie nutzt nekrophage Insekten, hauptsächlich Dipteren und ihre juvenilen Stadien, zur Schätzung der minimalen Leichenliegezeit. Dem liegt zugrunde, dass nekrophage Dipteren binnen Minuten nach dem Todeseintritt potentiell in der Lage sind, einen Leichnam zu detektieren und zu besiedeln. Das anschließende Wachstum und die Entwicklung der juvenilen Stadien erfolgt als Funktion von der Art und der Umgebungstemperatur.
Mit Hilfe von Laborstudien konnten bislang für einige forensisch relevante Fliegenarten Entwicklungsdaten erhoben werden, die eine Altersbestimmung der sich an einem Leichnam entwickelnden Larven und Puppen erlauben und so eine Schätzung der minimalen Leichenliegezeit ermöglichen. Als Nährsubstrat für Laborstudien werden tierische Gewebe verwendet. Eine Übertragbarkeit der Daten auf humanes Gewebe wurde aber bislang nicht verifiziert. In der vorliegenden Arbeit wurde das larvale Wachstum und die juvenile Entwicklungsgeschwindigkeit der forensisch relevanten Schmeißfliege Calliphora vicina (Diptera: Calliphoridae) auf humanem Muskelgewebe untersucht und mit dem Wachstum auf Schweineleber, magerem Schweinemuskelfleisch und Schweinehackfleisch verglichen. Die auf humanem Gewebe heranwachsenden Individuen waren mit bis zu 3,5 mm signifikant länger als die Individuen, die sich auf Leber und dem mageren Schweinemuskelfleisch entwickelten. Bei der Verwendung von Hackfleisch vom Schwein zeigte sich kein Unterschied. Darauf basierend wird die Empfehlung ausgesprochen, für zukünftige Entwicklungsstudien Schweinehackfleisch als Ersatz für humanes Gewebe zu verwenden.
Zahlreiche Anleitungen zur Asservierung forensisch-entomologischer Spuren empfehlen das Sammeln getrennt nach Körperregionen eines Leichnams. Dies soll eine mögliche gewebespezifische Entwicklungsrate berücksichtigen. Das für die vorliegende Arbeit durchgeführte systematische Absammeln von Fliegenlarven von 51 Leichnamen getrennt nach Körperregionen zeigte keine artspezifischen Präferenzen für bestimmte Gewebe oder Körperregionen. Das Artenspektrum entsprach größtenteils dem aufgrund von Studien an Schweinekadavern zu erwartendem Artenspektrum für Deutschland und Mitteleuropa. Insgesamt konnten 15 Schmeißfliegenarten nachgewiesen werden, von denen in der Regel mehrere gleichzeitig an einem Leichnam zu finden waren. Dies zeigt, dass ein Faktor wie interspezifische Konkurrenz in Zukunft mehr Beachtung in der Forschung erhalten sollte.
Bislang wurde in der forensischen Entomologie die minimale Leichenliegezeit durch die Untersuchung juveniler Stadien von Fliegen eingegrenzt. Eine eventuell mögliche Ausweitung dieses Zeitfensters könnte durch eine Altersbestimmung der adulten Fliegen oder der leeren Puparien gelingen. Der Nachweis, dass die dafür untersuchten Fliegen bzw. Puparien tatsächlich von dem fraglichen Leichnam stammen, war bislang nicht möglich. Die forensische relevante Schmeißfliege Lucilia sericata wurde in der vorliegenden Arbeit auf humanem Gewebe und Gewebe von elf weiteren Tierarten großgezogen. Durch die Analyse stabiler Kohlen- und Stickstoffisotope konnte ein von diesen elf Tierarten abgrenzbares humanes Isotopenprofil sowohl für die adulten Fliegen von L. sericata, als auch für ihre leeren Puparien detektiert werden. Dieses Profil spiegelte die Nahrungszusammensetzung der Wirte wider.
Die vorliegende Arbeit erhebt Daten zur Entwicklung einer forensisch relevanten Schmeißfliegenart auf humanem Gewebe, belegt das bislang lediglich am tierischen Modell erhobene Schmeißfliegeninventar als für menschliche Leichen relevant und hinterfragt die gewebespezifische Asservierungsempfehlung als ein akademisches Artefakt. Auf dieser Basis konnten Empfehlungen für die Weiterzucht fallrelevanter entomologischer Spuren ausgesprochen werden, die gerichtsverwertbar sind und die Verwendung von tierischem Gewebe oder Tierkadaver in der forensisch-entomologischen Forschung legitimieren. Die Analyse stabiler Isotope legt darüber hinaus einen neuen, innovativen Grundstein für die routinemäßige Spurenzuordnung älterer Entwicklungsstadien und ist damit Vorreiter auf dem Gebiet der forensischen Entomologie.
kurz und kn@pp news : Nr. 43
(2018)
Im Jahr 1564 veröffentlicht der Ulmer Militärexperte und -schriftsteller Leonhard Fronsperger die Schrift "Von dem Lob deß Eigen Nutzen", in der er darlegt, dass die konsequente Verfolgung des eigenen Nutzens als individuelle Handlungsmaxime im Ergebnis zu einer Förderung des Gemeinwohls führt. Das etwas mehr als hundert Seiten umfassende Werk wird in Frankfurt am Main, einem Zentrum des europäischen Buchdrucks und -handels, verlegt und findet Erwähnung im ersten veröffentlichten Katalog der Frankfurter Buchmesse. Fronsperger präsentiert seine für die damalige Zeit durchaus revolutionäre These in der Form eines satirischen Enkomions und unterlegt sie mit einer umfangreichen Gesellschaftsanalyse. Er stellt fest, dass die politischen Herrschaftsformen, die gesellschaftlichen Institutionen und die wirtschaftlichen Handelsbeziehungen auf einer konsequenten Verfolgung des eigenen Nutzens aller Akteure beruhen und dass sich die von der Kirche geforderte Ausrichtung des individuellen Handelns am Gemeinwohl in der Realität nicht finden lässt. Vielmehr hält er die Kritik der Theologen am egoistischen Handeln des Einzelnen für falsch, empfindet er doch den Staat, Wirtschaft und Gesellschaft im Großen und Ganzen als gut funktionierend.
Im Folgenden dokumentieren wir zunächst die Biografie des Autors, die Entstehung und Verbreitung des Werks und seine besondere literarische Form. Anschließend diskutieren wir die zentrale These in drei verschiedenen geistesgeschichtlichen Kontexten, die jeweils von besonderer Bedeutung für die Herausbildung der neuzeitlichen Gesellschafts- und Wirtschaftstheorien sind. Erkenntnis- und staatstheoretisch weist Fronspergers Werk deutliche Parallelen zu den Analysen auf, die Niccolò Machiavelli und später Giovanni Botero in Italien zur Bedeutung der auf den individuellen fürstlichen Interessen basierenden Staatsräson bzw. zu den Triebkräften erfolgreicher Stadtentwicklung vorlegten. Markante Unterschiede gibt es dagegen zu den Ansichten der deutschsprachigen Reformatoren im Anschluss an Luther, die zwar die Unterscheidung zwischen geistlicher und weltlicher Sphäre propagieren und damit die Entwicklung einer eigenständigen Moral für das Wirtschaftsleben befördern, dort allerdings mehrheitlich die Orientierung am "Gemeinen Nutzen" propagieren. Indem Fronsperger dagegen die Verfolgung des Eigennutzes fordert, nimmt er wirtschafts- und gesellschaftstheoretische Einsichten über das Wesen und die Auswirkungen der Arbeitsteilung vorweg, die erst 150 Jahre und später von Bernard Mandeville und Adam Smith in England und Schottland formuliert wurden. Das Werk Fronspergers bietet damit ein herausragendes Beispiel dafür, wie sich aus dem Zusammenspiel von wirtschaftlichem Erfolg, einem realistischen Menschenbild und manchen Aspekten der Reformation in deren Folge ein neues normatives Verständnis von den Antriebskräften ökonomischer und gesellschaftlicher Dynamik entwickelt, das später als der "Geist des Kapitalismus" bezeichnet wird.
Die Verknüpfung des Fahrrades mit dem Öffentlichen Verkehr (ÖV) kann den Umweltverbund stärken, den Übergang von einem Verkehrssystem auf das andere erleichtern und eine attraktive Alternative zum motorisierten Individualverkehr schaffen. Die vorliegende Arbeit repräsentiert den zweiten umfassenden Projektbericht innerhalb des Forschungsprojektes „Verbesserte Integration des Fahrrads in den öffentlichen Verkehr – Systematische Erschließung von Handlungsoptionen und Bewertung von Best-Practices“. Im ersten Projektbericht (ebenfalls in dieser Arbeitspapierreihe erschienen – Nr. 15) wurden die Entwicklungen der letzten Jahre in den infrastrukturellen Themenfeldern Fahrradmitnahme, Fahrradverleihsysteme und Fahrradabstellanlagen aufgearbeitet und Fragen zu Kommunikation und Marketing der Angebote sowie zu Möglichkeiten der fortschreitenden Digitalisierung zur verbesserten Integration von Fahrrad und Öffentlichem Verkehr diskutiert. Darauf aufbauend werden im vorliegenden Bericht die Ergebnisse vertiefender Fallstudien dargestellt, mit dem Ziel, Erfolgsfaktoren und Hemmnisse für die Integration von Fahrrad mit Öffentlichem Verkehr aufzuzeigen und in einem späteren Schritt daraus Handlungsempfehlungen zur Stärkung dieser Integration für Kommunen und Verkehrsanbieter geben zu können. Für die Fallstudien wurden solche Beispiele ausgewählt, die einen Vorbildcharakter haben und als nachahmenswert für andere Städte und Regionen gelten können bzw. aus denen sich Erkenntnisse für die Stärkung der Integration von Fahrradverkehr mit dem ÖV ziehen lassen. Zudem sollten die verschiedenen infrastrukturellen Themenfelder abgedeckt sein. Neben einer Darstellung der jeweils fallspezifischen Besonderheiten wird zu jedem Fallbeispiel das Betreiber- und Geschäftsmodell dargestellt und es erfolgt eine Bewertung, die sowohl die Sicht der Betreiber als auch die der Nutzenden beachtet.
Folgende Fallbeispiele werden behandelt:
Die hessischen Verkehrsverbünde Rhein-Main-Verkehrsverbund (RMV) und Nordhessischer Verkehrsverbund (NVV) bieten eine kosten- und sperrzeitfreie Mitnahmeregelung für Fahrräder an.
Das MVGmeinRad Mainz ist als Fahrradverleihsystem ein Teil des kommunalen ÖPNV-Unternehmens.
Zu den Fahrradabstellanlagen an Bahnhöfen wurden in der Fallstudie drei unterschiedlich große Anlagen einbezogen: Dein Radschloss des Verkehrsverbundes Rhein-Ruhr (VRR) für kleine, das Radhaus Offenburg für mittelgroße und die Radstation Düsseldorf für große Standorte.
München wurde schließlich für eine kommunale Strategie zur verbesserten Verknüpfung von Fahrrad und Öffentlichem Verkehr ausgewählt, da dort eine Vielzahl von Maßnahmen zur Stärkung der Fahrradmobilität sichtbar sind.
Das Internet ist ein gigantisches Netzwerk von Maschinen. Während sich dessen konkrete Nutzung permanent weiterentwickelt, bleibt dessen Funktion im Kern doch immer der Austausch von Informationen. Die vielfältigen Institutionen der Internet Governance lassen sich als Versuch verstehen, diesen Austausch zu ermöglichen. Eine zentrale Rolle kommt dabei der Internet Corporation for Assigned Names and Numbers (ICANN) zu. Sie verwaltet das globale Adressbuch des Internets und legt so fest, wie weit das Netz des Internets reicht. Die technische Notwendigkeit einer solchen zentralen Instanz wird im Prinzip kaum bestritten. Zunehmend jedoch verschärfen sich die Konflikte darüber, wie weit deren Kompetenzen reichen und wer sie kontrollieren sollte. Letztlich, so möchte ich zeigen, geht es um die Frage, wieviel internationale Autorität in diesem Bereich der Internet Governance notwendig und legitim ist.
Die Modulation molekularer Systeme mit Licht ist ein in den letzten Jahren immer stärker untersuchtes Forschungsgebiet. Es existiert bereits eine große Anzahl an Publikationen, die mittels statischer Spektroskopie und anderer statischer Methoden Einblicke in die ablaufenden Prozesse gewähren konnten. Untersuchungen im Ultrakurzzeitbereich sind jedoch eher selten, liefern aber detaillierte Informationen zu den ablaufenden Prozessen. Den Wissensstand diesbezüglich zu erweitern, war Ziel dieser Dissertation.
Untersucht wurden neun photoschaltbare, molekulare Dyaden hinsichtlich ihrer Dynamik nach Photoanregung. Die Dyaden setzten sich aus einem Fluorophor (Bordipyrromethen, BODIPY), einem Photoschalter (Dithienylethen, DTE; offen oder geschlossen) und gegebenenfalls einer COOH-Ankergruppe zusammen.
Die Unterschiede in den Molekülstrukturen bestanden in der Verknüpfung der einzelnen Bauteile (kurze oder lange, beziehungsweise gerade oder gewinkelte Brücke) und der Art des Fluorophors und des Photoschalters (jeweils zwei verschiedene Strukturen).
Durch Belichtung mit UV- oder sichtbarem Licht konnten photostationäre Zustände generiert werden, die 40 – 98 % geschlossenes Isomer (je nach Molekül) beziehungsweise 100 % offenes Isomer enthielten.
Unter Verwendung von Licht verschiedener Wellenlängen konnten beide Teile der Dyade (BODIPY beziehungsweise DTE) separat angeregt und hinsichtlich der ablaufenden Photodynamik untersucht werden, wobei der Fokus der Arbeit auf transienten Absorptionsmessungen mit Anregung des BODIPY lag. Bei einem Großteil der untersuchten Moleküle kam es in diesem Fall, je nach Zustand des Photoschalters, zu einem intramolekularen Energietransfer nach der Theorie von Theodor Förster. Durch diese Energietransferprozesse kommt es zu einer drastischen Verkürzung der Lebenszeit des angeregten Zustands des BODIPY. Ausgehend von Lebenszeiten im Bereich von Nanosekunden im Falle der offenen Dyaden (entspricht der Fluoreszenzlebensdauer) reduziert sich die Lebenszeit auf wenige Pikosekunden, beziehungsweise je nach Aufbau des Moleküls sogar noch weiter. Die unterschiedlich schnellen Transferprozesse sind im Sinne der Förster-Theorie durch die unterschiedlichen Entfernungen und relativen Orientierungen der beiden beteiligten Übergangsdipolmomente (von DTE und BODIPY) erklärbar.
Neben Experimenten mit Anregung des BODIPY-Teils der Dyaden wurden weitere Experimente durchgeführt, in denen der geschlossene Photoschalter direkt angeregt wurde. Aus diesen Messungen konnten Erkenntnisse über die Relaxation des DTE erlangt werden. Auf diese Weise war es möglich, bei einigen der Moleküle die Ringöffnungsreaktion zu beobachten und zu charakterisieren. Im Fall von Dyade 4 konnten zusätzlich kohärente Schwingungen des Moleküls nach Photoanregung detektiert werden, die sich anhand einer Frequenzmodulation der Absorptionsbande des BODIPY-Teils über einen Zeitbereich von 2 ps beobachten ließen.
Diese Arbeit trägt dazu bei, die Lutherdarstellung in Lehr- und Schulbüchern der ersten Schulbuchgeneration systematisch zu erschließen. Sie stellt sich der Herausforderung den jeweils spezifischen Akzent der Lutherdarstellung und -konzeption, welcher in den Lehrtexten des Lehrbuchs transportiert wird, herauszuarbeiten und weitergehend im Verbund mit den anderen untersuchten Lehrbüchern auf übergreifende, verbindende und trennende Elemente zu untersuchen. Diese Forschungsarbeit leistet einen Beitrag zur Erschließung Luthers sowie ihrer Art und Intensität in dem Medium des Schulbuchs im Kontext der Aufklärung. Insgesamt werden zehn Werke von acht Autoren im Zeitraum von 1780 bis 1817 untersucht, darunter Schulbücher von Johann Matthias Schröckh, Lorenz von Westenrieder und Jakob Brand.
Nach Jakobson (1941) lassen sich in der frühen phonologischen Entwicklung zwei diskrete Phasen unterscheiden. Eine erste Phase, in der vorsprachliche Lalllaute produziert werden und keine phonologischen Kontraste gegeben sind, und eine zweite Phase, die eigentliche Sprachstufe, in der eben diese sprachsystematischen Kontrastbildungen sukzessive ausgebaut werden. Ausgehend von diesem strukturalistischen Paradigma wurden Protowörter, die im Übergang von der Lallphase zur Zielwortproduktion realisiert werden und bei einer relativ stabilen Bedeutungszuweisung keine overte Ähnlichkeit zu Zielwörtern zeigen, entweder als artikulatorische Muster analysiert oder unter der Perspektive der Generativen Grammatik als nicht-phonologische Wortformen gänzlich ignoriert. Im Gegensatz zu diesen tradierten Ansätzen wird in dieser Arbeit ein neuer Ansatz vertreten, nach dem dreidimensionale (mit segmentaler, silbischer und metrischer Ebene) phonologische Repräsentationen ab ovo in der Sprachverarbeitung aktiv sind und sich gemäß der klassischen Kompetenz-Performanz-Unterscheidung in frühen Wortproduktionen auch linguistisch analysieren lassen. Das adäquate Instrumentarium für diese Analyse können gerade nicht zielsprachliche Merkmalskontraste mit bedeutungsunterscheidender Funktion sein, sondern genuin phonologische Kontraste. Zielführend ist hier die Anwendung der Demisilbentheorie von Clements (1990), mit deren Hilfe die phonologische Komplexität von Demisilben nach Maßgabe von Sonorität berechnet werden. Wurde diese Theorie bisher erfolgreich in der Aphasiologie angewendet, wird sie hier erstmals in der Untersuchung der Protowortproduktion, appliziert. Die Daten stammen aus der im Rahmen dieser Arbeit durchgeführten Einzelfallstudie, in der die Spontansprachproduktionen von Kind J., 1;4 Jahre, jeweils einmal wöchentlich für 30 Minuten aufgezeichnet wurden. Die Aufnahmen endeten zu dem Zeitpunkt, als Kind J. keine Protowörter mehr produzierte. Wesentliche Ergebnisse einer linguistisch-qualitativen wie auch einer statistisch-quantitativen Analyse dieser Daten waren, dass Proto- und Zielwortproduktion korrelierten, d.h., bei Abnahme der Protowortproduktion die Zielwortproduktion zunahm; beide Wortklassen tendenziell aus nicht-komplexen Demisilben aufgebaut waren und Protowörter in dem Sinne als Vorläufer von Zielwörtern angesehen werden können, als dass bei ihnen nicht die zielsprachliche Bedeutungszuweisung, sondern die Etablierung phonologischer Repräsentationen maßgeblich ist. Ausgehend von diesen Ergebnissen wird ein differenziertes Schalenmodell der frühen phonologischen Entwicklung vorgestellt, nach welchem der segmentale Merkmalsausbau und seine Integration in die Silbe mittels Sonorität noch vor der metrischen Betonungszuweisung stattfindet. Unter Hinzunahme der Parallelen Architektur von Jackendoff (2002) wird abschließend eine kognitiv-linguistische Definition von Protowörtern gegeben, die nicht zuletzt auch zu diagnostischen Zwecken in der sprachtherapeutischen Praxis gebraucht werden kann.
In der rezensierten Monographie gelingt es, "New Public Management" als strategisches und politisches Projekt auszudeuten. Die Konsequenzen für die Liegenschaftspolitik können fundiert dargelegt werden. In der Rezension wird eine Einordnung in die bisherige Forschung sowie eine kritische Würdigung der rezensierten Arbeit versucht.