Universitätspublikationen
Refine
Year of publication
Document Type
- Part of Periodical (2839)
- Article (2192)
- Contribution to a Periodical (2101)
- Book (1972)
- Doctoral Thesis (1683)
- Review (914)
- Report (608)
- Working Paper (440)
- Part of a Book (195)
- Conference Proceeding (160)
Language
- German (13553) (remove)
Has Fulltext
- yes (13553) (remove)
Keywords
- Deutschland (99)
- Financial Institutions (43)
- Forschung (40)
- Ausstellung (39)
- Islamischer Staat (39)
- Digitalisierung (36)
- Frankfurt am Main (36)
- Terrorismus (36)
- Frankfurt <Main> / Universität (35)
- USA (34)
Institute
- Präsidium (4930)
- Medizin (1344)
- Gesellschaftswissenschaften (1058)
- Rechtswissenschaft (735)
- Neuere Philologien (634)
- Geschichtswissenschaften (629)
- Wirtschaftswissenschaften (627)
- Biochemie und Chemie (540)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (522)
- Kulturwissenschaften (463)
Das humane Immundefizienz-Virus (HIV) benötigt für die Virus-Zellbindung spezifische Oberflächenrezeptoren auf den Wirtszellen (z. B. CD4, CXCR4, CCR5). Zurzeit basiert die Behandlung der chronisch persistierenden HIV-Erkrankung auf einer lebenslangen Chemotherapie (Highly Active Antiretroviral Therapy, ART) bestehend beispielsweise aus einer Kombination von 2 Nukleosidanaloga und einem Protease-Inhibitor, die das Virus nicht eradiziert, sondern nur in seiner Vermehrung hemmt. Dies birgt jedoch die Gefahr der Entwicklung von Resistenzen gegenüber der medikamentösen Therapie. Zusätzlich wird eine Veränderung der HIV-Rezeptorspezifität unter der Behandlung mit Antagonisten des HIV-Rezeptors CCR5 befürchtet. Cytarabin (Ara-C) ist ein Zytostatikum, das in der Therapie von Leukämien eingesetzt wird. Als Nukleosidanalogon gehört es strukturell zur selben Wirkstoffklasse wie die in der HIV-Therapie eingesetzten Nukleosidanaloga, jedoch sind bisher keine antiretroviralen Eigenschaften für Ara-C beschrieben worden. Die T-lymphoide Zelllinie C8166 ist permissiv für HIV. Die Adaptation von C8166-Zellen an das Wachstum in Gegenwart von Ara-C (Zellinie C8166rAra-C5μM) resultierte in einer signifikanten Verringerung der Oberflächenexpression der HIV-Rezeptoren CD4 und CXCR4 und zu einer verringerten Permissivität gegenüber HIV. In der vorliegenden Arbeit sollte untersucht werden, ob die Adaptation an Ara-C bei anderen T-lymphoiden Zelllinien ebenfalls zur Verringerung der Expression von CD4, und CXCR4 führt. Zusätzlich sollte untersucht werden, wie sich die Expression von CCR5 verhält. Es wurden die folgenden parentalen und an Ara-C adaptieten T-lymphoiden Zelllinien verwendet: H9, H9rAra-C600μM, MOLT4/8, MOLT4/8rAra-C100μM und MOLT4/8rAra-C200μM. Bei allen Ara-C resistenten Zelllinien kam es zu einer signifikant verringerten Expression von CD4 und CXCR4 auf mRNA und Proteinebene sowie zu einer signifikanten Erhöhung der CCR5-Expression. Im Gegensatz hierzu zeigten an AZT adaptierte H9-Zellen (H9rAZT3000μM) keine signifikante Veränderung in der Expression von CD4, CXCR4 oder CCR5 im Vergleich zu parentalen H9-Zellen. Die akute Behandlung der parentalen H9-Zellen mit niedrigen, untoxischen Ara-C Konzentrationen führte ebenfalls zu einem Anstieg der CCR5-Expression und zu einer Verminderung der CD4- und CXCR4-Expression. Zellzyklusmessungen ergaben, dass der Zellzyklus in mit untoxischen Ara-C-Konzentrationen behandelten H9-Zellen (Anstieg der Zellteilungsrate auf das 2-fache) und in allen an Ara-C adaptierten Zelllinien im Vergleich zu den unbehandelten bzw. parentalen Zellen stärker stimuliert war. Epigenetische Einflüsse könnten bei der veränderten Expression von CD4, CXCR4 und/oder CCR5 in Ara-C resistenten Zellen eine Rolle spielen. Dies erscheint jedoch unwahrscheinlich, da weder der DNA-Methylierungsinhibitor Aza-C noch der Histondeacetylase-Inhibitor SAHA die Expression von CD4, CXCR4 oder CCR5 beeinflussten. Weitere Untersuchungen müssen zeigen, ob eine Kombination von Ara-C, das zu einer Verringerung der CXCR4- und CD4-Expression und zu einer Erhöhung der CCR5-Expression führt, mit CCR5-Inhibitoren eine therapeutische Option darstellt. Möglicherweise wirkt die Verwendung von Ara-C auch einem CCR5/CXCR4-Shift entgegen.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Endokrin inaktives Hypophysenadenom und sekundäre Nebennierenrindeninsuffizienz : ein Fallbericht
(2021)
Das Hypophysenadenom als Ursache einer sekundären Nebennierenrindeninsuffizienz, nur mit isoliertem ACTH-Defizit, ist außergewöhnlich. Ein ACTH-Mangel tritt in der Regel nicht isoliert, sondern zusammen mit dem Ausfall anderer Hypophysenfunktionen auf. Besonders bei Patienten mit Kinderwunsch sollte den Erkrankungen der Hypophyse und der Nebennieren große Aufmerksamkeit geschenkt werden.
»Read Better!«
(2018)
Die Verwendung von photolabilen Schutzgruppen zur nicht-invasiven Kontrolle von Systemen birgt ein großes Potential für verschiedenste Anwendungsgebiete, die von der Erforschung und Regulation biologischer Prozesse, über den Einsatz in medizinischer Therapie bis hin zur Verwendung als molekulare Datenspeicher reichen. Für diese Umsetzung benötigt es allerdings eine breite Auswahl an entsprechenden PPGs und das Wissen über ihre Reaktionsmechanismen. Im Allgemeinen lässt sich die Konzeptionierung von PPGs in drei Prozesse einteilen, beginnend bei dem Design und der Synthese einer neuen PPG. Bei diesem Schritt liegt der Fokus auf ein oder zwei besonderen Eigenschaften, wie beispielsweise einer Absorptionswellenlänge in einem bestimmten Spektralbereich oder einer hohen Uncaging-Quantenausbeute. Im zweiten Schritt folgt die Untersuchung der PPG bezüglich spektroskopischer und mechanistischer Eigenschaften und ggf. anschließender Optimierung auf synthetischer Ebene. Die so gewonnenen Informationen sind dann hilfreich bei dem letzten Schritt, bei dem es um den Einsatz der PPG in einem entsprechenden System geht. Hierbei müssen die verwendeten PPGs genau auf das Zielsystem abgestimmt sein, dazu zählen verschiedenste Parameter wie Anregungswellenlänge, Extinktionskoeffizient, Art und Struktur der Photoprodukte sowie Uncaging-Effizienz und Geschwindigkeit.
In der vorliegenden Arbeit wurde über die drei vorgestellten Projekte mittels spektroskopischer Methoden zu allen drei genannten Stadien zur Konzeptionierung von PPGs ein Beitrag geleistet. Dazu zählt die Entwicklung der CBT-basierten PPGs, die Untersuchung der Struktur-Wirkungsbeziehung von (DMA)(2)F-PPGs und die Etablierung einer wellenlängenselektiven An-/Aus-Funktionalität eines Antibiotikums. In enger interdisziplinärer Zusammenarbeit zwischen theoretischen, synthetischen und biologischen Teilgebieten konnte jedes Projekt innerhalb der jeweiligen Entwicklungsstufe erfolgreich abgeschlossen werden.
Mithilfe des relativ neuen Ansatzes, bei dem durch quantenmechanische Berechnungen der vertikalen Anregungsenergie von der kationischen Spezies einer PPG-Grundstruktur eine Aussage über ihre Qualität postuliert werden kann, konnte ausgehend von der Fluoren-Grundstruktur eine neue Klasse von PPGs gefunden werden. Dabei erwies sich die CBT-Struktur mit den Schwefelatomen an der para-Position als besonders geeignet. Insbesondere konnte die Grundstruktur durch die (OMePh)2-Substitution, welche in einer signifikanten bathochromen Verschiebung des Absorptionsmaximums resultierte, optimiert werden. Die Untersuchung der Ultrakurzzeit-Dynamik beider p-CBT Strukturen gab Aufschluss über die unterschiedlichen photochemischen Eigenschaften als PPG.
Für die Stoffklasse der Dimethylamino-Fluorene wurde ein wichtiger Unterschied zwischen den einfach- und zweifach-substituierten Derivaten aufgedeckt, der entscheidend für einen signifikanten Uncaging-Effizienzunterschied ist. Dabei stellt sich die Stabilität des symmetrisch-substituierten Fluorenyl-Kations als der wichtigste Faktor bezüglich der Uncaging-Quantenausbeuten heraus. Beide Schutzgruppen sind in der Lage photoinduziert eine AG freizusetzen, wobei der Reaktionsmechanismus über die kationische Spezies (DMA)(2)F + abläuft. Der Unterschied hierbei liegt in der Lebensdauer der beiden Kationen, die im Falle der symmetrischen PPG stark lösungsmittelabhängig ist und bis zu mehreren Stunden betragen kann, was bis dato das langlebigste Kation dieser Molekülklasse darstellt. Für die zukünftige Optimierung dieser PPG-Klasse ist die Erkenntnis über die Gründe für die Stabilität des Kations von großem Vorteil. Der stabilisierende Faktor ist zum einen die zweite Dimethylamino-Gruppe der symmetrischen Verbindung, welche durch die Erweiterung der Mesomerie zur besseren Verteilung der positiven Ladung im Molekül führt. Zum anderen spielt das Lösungsmittel eine entscheidende Rolle. Dabei bieten protische, polare Medien eine zusätzliche Stabilisierung, die notwendig für die Langlebigkeit des Kations ist. Die Lebensdauer des Kations war zudem durch eine zweite Bestrahlungswellenlänge kontrollierbar. Ausgehend vom Kation konnte eine reversible Nebenreaktion in protischen Lösungsmitteln identifiziert werden, die einen Austausch der AG durch das Lösungsmittel darstellt.
Zusätzlich konnte die kleine Stoffklasse der bisher bekannten Photobasen durch die Verbindung (DMA)2F-OH erweitert werden. Genauer betrachtet handelt es sich dabei um eine photoinduzierte Hydroxidfreisetzung, wodurch je nach eingesetzter Konzentration ein pH-Sprung von bis zu drei Einheiten erreicht werden konnte. Dabei stellt sich die Lebensdauer des pH-Sprungs als ein entscheidender Parameter für Photobasen dar, welcher sich für die hier untersuchte Verbindung aufgrund der besonderen Stabilität des entsprechenden Kations, im Vergleich zu einigen der bereits bekannten Verbindungen, als besonders langlebig herausgestellt hat. Ein weiterer Vorteil des Einsatzes von (DMA)2F-OH als Photobase ist die Möglichkeit den pH-Sprung durch zwei verschiedene Wellenlängen sowohl zeitlich als auch örtlich zu kontrollieren, indem die Verbindung zwischen den zwei Spezies (DMA)2F-OH und (DMA)2F + geschaltet werden kann.
Im Hinblick auf die Anwendungen von PPGs zur verbesserten zeitlichen und örtlichen Kontrolle biologischer Zielsysteme ist im Rahmen dieser Arbeit das Prinzip vom wellenlängenselektiven Uncaging zweier PPGs an einem Molekül (two-PPG-one-molecule, TPOM) etabliert worden. Das Zielmolekül war hier das Antibiotikum Puromycin, welches durch seine Fähigkeit an das Ribosom zu binden, die Proteinbiosynthese inhibieren kann. Dabei wurden zwei verschiedene PPGs gefunden, die sowohl aufeinander als auch auf das Biomolekül selbst abgestimmt sind. Im Ausgangszustand sind beide PPGs am Puromycin angebracht, wodurch es in seiner biologischen Wirkung inaktiv ist. Befindet sich das doppelt geschützte Puromycin in der ROI, so kann es durch die Bestrahlung mit einer bestimmten Wellenlänge infolge des ersten Uncaging-Schritts aktiviert werden. Da biologische Systeme nicht statisch sind, können aktivierte Moleküle stets von der gewünschten ROI nach außen gelangen, wodurch der Anspruch der räumlichen Kontrolle nicht erfüllt wird. In diesem Fall kann durch die TPOM-Umsetzung die zweite Bestrahlungswellenlänge auf den entsprechenden Bereich angewendet werden, wodurch das Uncaging der zweiten PPG initiiert und folglich das Puromycin deaktiviert wird. Des Weiteren konnte gezeigt werden, dass die Deaktivierungswellenlänge auch in der Lage ist beide PPGs zu entfernen, wodurch eine vollständige Inaktivierung des Puromycins außerhalb der ROI garantiert werden kann.
Ist die Proteinbiosynthese längerfristig blockiert, führt das schließlich zum Zelltod. Ein großes Anwendungsgebiet dieses Antibiotikums sind die Neurowissenschaften. Aufgrund der Tatsache, dass Puromycin keine Unterscheidung zwischen eukaryotischen und prokaryotischen Zellen macht, findet es keine Anwendung in der Medizin. Eine zeitliche und örtliche Kontrolle seiner Wirkung könnte den Anwendungsbereich dieses Antibiotikums evtl. ausweiten. Das wohl naheliegendste wäre der Einsatz bei Tumorzellen, deren Behandlung durch Zytostatika auf den gesamten Körper wirken und dadurch viele schwere Nebenwirkungen verursachen.
Wie bereits weiter oben beschrieben muss für jedes Biomolekül und das entsprechende Wirkzentrum die Auswahl des passenden PPG-Paares einzeln abgestimmt werden. Dennoch lässt sich anhand des hier etablierten Systems ein Konzept für die erfolgreiche Umsetzung zukünftiger TPOM-Systeme an anderen biomolekularen Wirkstoffen zusammenfassend formulieren.
* Der erste Schritt sollte die Betrachtung des Wirkzentrums des zu modifizierenden Biomoleküls sein: Welche funktionelle Gruppe bzw. Gruppen sind entscheidend für die Bindetasche oder –stelle? Dieser Bereich des Biomoleküls soll im Zuge des Uncagings entweder blockiert oder abgespalten werden. In der unmittelbaren Nähe muss die PPG1 angebracht werden.
* Bei der Wahl von PPG1 ist das wichtigste Kriterium, dass das Biomolekül mit enthaltener Schutzgruppe in seiner Wirkung unbeeinträchtigt bleibt. Dies schränkt die Auswahl beträchtlich ein. Eine mögliche Umsetzung wäre die Anbringung einer Nitro-Gruppe falls vorhanden an einen Benzolring, welcher sich im Fall eines großen Biomoleküls in der Nähe der wichtigen funktionellen Stelle befindet.
* Die zweite PPG (PPG2), deren photoinduzierte Abspaltung zur Aktivierung des Wirkstoffs führen soll, kann strukturell frei gewählt werden. Das Auswahlkriterium hierbei ist das Absorptionsspektrum. Hierbei sollte das Absorptionsmaximum rotverschoben zur PPG1 sein, um eine unerwünschte Abspaltung zu vermeiden. Außerdem darf keine signifikante Absorption von PPG2 bei der Uncaging-Wellenlänge von PPG1 vorhanden sein.
* Beide PPGs sollten eine ähnliche Uncaging-Quantenausbeute vorweisen, um im Deaktivierungsschritt der doppelt geschützten Verbindung durch das höher energetische Licht keine Bevorzugung einer einzelnen Schutzgruppe zu riskieren.
Anhand der erarbeiteten Herangehensweise können weitere Wirkstoffe oder Biomoleküle hin zu einer An- / Aus-Funktionalität modifiziert werden. Mit der Umsetzung des TPOM-Konzepts kann eine Verbesserung der örtlichen und zeitlichen Kontrolle der Aktivität eines Antibiotikums erreicht werden. Für die Anwendung in biologischer Umgebung ist diese präzische Kontrolle essentiell, um unerwünschte Nebenwirkungen angesundem Gewebe zu verhindern.
Übermäßige Gewaltanwendungen durch Polizist:innen in Deutschland sind bislang nur in Ansätzen untersucht. Das Buch liefert umfassende wissenschaftliche Befunde zu einschlägigen Situationen und ihrer strafrechtlichen Aufarbeitung. Auf Basis einer Betroffenenbefragung mit über 3.300 Teilnehmenden und über 60 qualitativen Interviews stellen sich die Fälle als komplexe Interaktionsgeschehen dar, bei deren Aufarbeitung eine besondere Definitionsmacht der Polizei sichtbar wird.
Das Forschungsprojekt KviAPol (Körperverletzung im Amt durch Polizeibeamte und -beamtinnen) untersucht polizeiliche Gewaltanwendungen, die aus Sicht der Betroffenen rechtswidrig waren, mittels quantitativer Online-Befragung sowie die polizeiliche, justizielle und zivilgesellschaftliche Perspektive auf rechtswidrige Polizeigewalt und deren Aufarbeitung in Deutschland mittels qualitativer Interviews. Zum Team gehören die Wissenschaftlichen Mitarbeiterinnen Laila Abdul-Rahman, Hannah Espín Grau und Luise Klaus sowie Prof. Dr. Tobias Singelnstein, der die Projektleitung innehat.
Ein Zell-Atlas des kranken Herzens : Einzelzelltechniken ermöglichen neue Einsichten auf Zellebene
(2019)
Herz und Gefäße bilden ein hochkomplexes Organsystem, in dem unterschiedlichste Zellen korrekt zusammenarbeiten müssen, um alle Organe mit Blut zu versorgen. In den vergangenen Jahrzehnten hat die Herzbiologie ganze Gewebe oder Zellisolate in den Blick genommen. Doch jetzt erlauben neue Technologien, die Vielfalt der Zelltypen und ihre individuelle Antwort auf Signale bis auf die Ebene von Proteinen und Genen zu verfolgen. Forscher hoffen, kranken Herzen dadurch besser bei der Regeneration helfen zu können.
In der folgenden Anleitung werden diverse Methoden für den Zugriff auf das Ressourcen-Management, entwickelt von der AG Texttechnologie, erläutert. Das Ressourcen-Management ist für alle Anwendungen identisch. Erklärt wird das Auslesen des Ressourcen-Managements der Projects „PHI Picturing Atlas“. Alle Anweisungen erfolgen per RESTful-Aufrufen. Die API-Dokumentation findet sich unter http://phi.resources.hucompute.org.
From theoretical considerations a dynamically distorted octahedron as a result of vibronic coupling between the ground state and the first excited state should exist for 14 electron AX6E systems like TeX62- . A high symmetry crystal field yielding at least a center of symmetry for the Te position stabilizes this fluctuating structure, otherwise statical distortion will be observed. From X-ray diffraction experiments on antifluorite type compounds A2TeX6 (A = Rb. Cs: X = Cl, Br) the averaged structure (m3̅m symmetry) of the anions was found even at very low temperatures. The thermal parameters are not significantly different from those of similar SnX62 compounds. Distortions therefore are very small and are evident from FTIR spectroscopic measurements only. Here very broad T1u-deformation vibration bands are observed down to temperatures <10 K without splitting: Astatically distorted species could not be frozen out. In contrast to XeF6 for TeX62- the energy gap between the threefold, fourfold or sixfold minima of the potential surface (according to the symmetry of one component of the T1u-vibration) is very small and shifted to temperatures lower than reached with the devices used for these experiments.
Einleitung: Der Wissenschaftsrat empfahl 2008 den Universitäten innerhalb der nächsten 5 Jahre, d. h. bis spätestens 2014, ein Qualitätsmanagementsystem (QMS), das internationalen Maßstäben entspricht, zu etablieren. Ziel der vorliegenden Studie war es, zu evaluieren, ob es derzeit ein geeignetes QMS für das elektronische Lernen (eLearning) gibt, das speziell im Fach Humanmedizin deutschlandweit eingesetzt werden kann.
Methoden: Im Rahmen einer Umfrage wurden mittels eines anonymisierten Fragebogens (8 Domänen, 50 Items) alle Universitäten (n=35) des Fachbereichs Medizin in Deutschland evaluiert.
Ergebnisse: Die Ergebnisse (46,3% Rücklaufquote) zeigen einen nur zögerlichen Einsatz von QMS für eLearning und dass vor Ort ein großes Informationsdefizit herrscht.
Schlussfolgerung: Unter Berücksichtigung der Limitationen dieser Studie kann zusammenfassend festgehalten werden, dass erheblicher Bedarf zu bestehen scheint, das existierende Informationsdefizit für QMS eLearning zu mindern, sowie zukünftig genaue Richtlinien und Standards zur Umsetzung zu definieren.
Einleitung: Das Arbeiten in einer Notfallsituation ist stark von einer strukturierten Herangehensweise im Patientenmanagement abhängig. Junge Assistenzärzte sind in ihrem Alltag häufig die ersten vor Ort und sollten daher bereits mit Abschluss des Studiums in der Lage sein, häufige Notfallsituationen zu meistern. In den letzten Jahren hat sich die Simulation als hauptsächlich genutzte Methode für die Ausbildung im Fach Notfallmedizin herauskristallisiert, sodass immer mehr Universitäten realitätsnahe Szenarien für die Ausbildung nutzen. Jedoch ist unklar welches Ausmaß an Realitätsnähe in Hinblick auf Kosten/Aufwand-Nutzen-Bilanz sinnvoll ist. Das Ziel der vorliegenden Arbeit ist es, den Effekt von zwei unterschiedlich realitätsnahen Lernumgebungen (Seminarraum vs. realistische Simulationsumgebung) auf die erlernten notfallmedizinischen Kompetenzen zu analysieren. Dazu wurden Krankheitsbilder gewählt, die jedem Arzt in Präklinik, auf Station und im ambulanten Bereich begegnen können und die zügig erkannt und behandelt werden müssen: Asthma, Sepsis und Apoplex.
Material und Methoden: Bei der vorliegenden Arbeit handelt es sich um eine vergleichende Effektivitätsanalyse im crossover-Design. Teilnehmende waren Studierende des 4. Studienjahres der Goethe-Universität Frankfurt am Main, die den 3-TagesNotfallmedizinkurs im Rahmen ihrer curricularen Ausbildung im Querschnittsbereich Notfallmedizin absolvierten. Am ersten Tag durchliefen alle Studierenden ein standardisiertes Skillstraining notfallmedizinischer Basiskompetenzen. An den Folgetagen wurden verschiedene leitsymptombasierte Module vermittelt, die neben der interaktiven Erarbeitung der theoretischen Lerninhalte eine direkte Anwendung in themenspezifischen Szenarien fokussierten. Für die vorliegende Studie wurden die Teilnehmenden in vier Gruppen randomisiert, wobei Gruppen eins und zwei das Training in der Seminarraumumgebung durchliefen, während drei und vier die Szenarien in der realitätsnahen Simulationsumgebung absolvierten. Am dritten Tag fand eine formative Überprüfung der erlernten Fähigkeiten in Form eines OSCEs statt. Bei dieser Überprüfung absolvierten die Gruppen eins und drei in der Seminarraumumgebung und Gruppen zwei und vier im realitätsnahen Umfeld der Simulation das Assessment. Die Datenauswertung erfolgte mit MS Excel und bias.
Ergebnisse und Fazit: Die vorliegende Studie fand zwischen Juli und Oktober 2018 an der Goethe-Universität in Frankfurt am Main statt. 134 Teilnehmer absolvierten die Studie vollständig. Die Ergebnisse zeigen deutliche Unterschiede in der Performance der vier Gruppen, sowohl insgesamt als auch nach Geschlechtern und mit dem van-Elteren-Test. Prozentual betrachtet zeigten die Teilnehmenden der Gruppe 4 (Training und Prüfung im realitätsnahen Umfeld) die höchsten Ergebnisse. Die Realitätsnähe hat einen positiven Einfluss auf die Performance der Studierenden.
Martin Luther und der Islam
(2011)
Um Dynamiken und Netzwerke in den untersuchten Clubszenen und urbanen Räumen Berlins wissenschaftlich erfassen zu können, bedarf es einer multidimensionalen Herangehensweise. Ethnografi sche Methoden sind dabei von größter Bedeutung: teilnehmende Beobachtung im Alltag sowie auf Veranstaltungen vor Ort, fokussierte Gespräche mit Szenegängern und reflektierende Berichte über die eigene Positionierung als Forscherin. Das gesammelte Datenmaterial ist vielfältig: detaillierte Feldnotizen nach jedem Club- oder Barbesuch, aber auch nach relevanten Gesprächen, sei es »face-to-face«, über E-Mail- oder Chatverkehr nehmen den größten Part ein. Bildmaterial wie Plakate, Flyer und selbst gemachte Fotos in Clubs ergänzen das Schriftmaterial auch visuell. Das Verfolgen stadt- und kulturpolitischer Entwicklungen, Beobachtungen sozioökonomischer Gegebenheiten in den jeweiligen Szenen und der Einfl uss urbaner Infrastruktur auf das Ausgehverhalten sind weitere Mosaiksteine, die dazu beitragen, ein möglichst ganzheitliches Bild entstehen zu lassen. Nach der Feldforschungs- und Datenerhebungsphase wird das gesamte Datenmaterial ab Januar 2011 einer qualitativen Analyse unterzogen.
Polypharmakologie hat in den letzten Jahren mehr und mehr an Bedeutung in der pharmazeutischen Forschung gewonnen und könnte in Zukunft zu einem Umdenken in der Entwicklung neuer Wirkstoffe führen. Das wachsende Verständnis für biologische Zusammenhänge, im speziellen für die starke Vernetzung zwischen verschiedenen Signalwegen oder Gewebearten, und die daran beteiligten Proteine, könnten zu gänzlich neuen Strategien führen. Beispiele aus dem Bereich der Onkologie und der Entwicklung von Neuroleptika haben bereits gezeigt, dass eine Intervention an mehreren Stellen eines solchen komplexen Netzwerkes zu wirksameren und gleichzeitig sichereren Wirkstoffen führen kann. Erkenntnisse aus der Systembiologie und die retrospektive Analyse bereits zugelassener Wirkstoffe machen deutlich, dass viele erfolgreiche Wirkstoffe nur aufgrund ihres polypharmakologischen Wirkprofils so effektiv sind – wenngleich dies bei Ihrer Entwicklung oftmals nicht beabsichtigt war.
Das rationale Design sogenannter „multitarget Wirkstoffe“ stellt bis heute eine große Herausforderung dar. Aus Sicht eines medizinischen Chemikers bedeutet es die Verknüpfung zweier, auf unterschiedliche Targets aktiver, Liganden zu einem neuen Wirkstoff, ohne einen signifikanten Aktivitätsverlust auf die einzelnen Targets herbeizuführen. Ein naheliegender Ansatz zur Verbindung zweier Liganden ist die Verknüpfung der Moleküle über einen flexiblen Linker. Dieser Ansatz kann zwar in vitro zu sehr potenten Wirkstoffen führen, birgt jedoch pharmakokinetische Nachteile, bedingt durch das hohe Molekulargewicht, die sich oft erst in vivo zeigen. Die Schwierigkeit besteht also zum einen in der Aufrechterhaltung der individuellen Aktivität auf das jeweilige Target und zum anderen im Erreichen einer guten Balance zwischen Aktivität und Komplexität des Liganden. Damit soll ausreichend Raum für spätere Optimierung von pharmakokinetischen und pharmakodynamischen Eigenschaften gewährleistet werden. Bisher wurden nur wenige Computer-gestützte Ansätze entwickelt um diese und ähnliche Fragestellungen zu bearbeiten. Aus diesem Grund ist die Entwicklung neuer in silico Verfahren zur Identifzierung von multitarget Liganden ein Kernthema dieser Arbeit. Die Implementierung eines Fragment-basierten Ansatzes hält die Komplexität der Liganden möglichst gering und bietet genügend Raum für eine anschließende, multi-dimensionale Optimierung an zwei oder mehreren Targets.
In der ersten Studie wurde eine Pharmakophor-basierte Strategie verfolgt. Die Repräsentation eines Liganden durch ein Pharmakophormodell stellt eine abstrakte dreidimensionale Darstellung der für die biologische Aktivität relevanten Strukturmerkmale dar. Diese Abstraktion vereinfacht den Vergleich zweier Verbindungen und erlaubt gleichzeitig Spielraum für chemische Variabilität. Bei diesem Ansatz wurden Pharmakophormodelle, jeweils für eine Vielzahl aktiver Liganden zweier Targets, erzeugt und paarweise miteinander verglichen. Sobald zwei Pharmakophormodelle eine genügend große Anzahl an Pharmakophorpunkten in räumlich ähnlicher Orientierung teilen, stellt dieses gemeinsame Pharmakophor die Basis eines potentiellen multitarget Liganden dar. In der beschriebenen Studie wurde dieses Verfahren anhand von aktiven Liganden der löslichen Epoxid Hydrolase (sEH) und 5-Lipoxygenase (5-LO) evaluiert. Die auf dieser Grundlage identifizierten multitarget Pharmakophormodelle wurden zum anschließenden Screening einer Fragement-Datenbank verwendet und führten zu 9 aktiven Liganden für sEH und 5-LO. Diese Liganden besitzen chemische Grundgerüste (Scaffolds), die in der Literatur bisher noch nicht als aktive sEH- oder 5-LO-Liganden beschrieben wurden und somit eine ideale Grundlage für die Entwicklung neuer Wirkstoffe darstellen. Für eine der gefundenen Verbindungen, basierend auf einem Benzimidazol-Gerüst, wurden Aktivitäten im niedrig mikromolaren Bereich für beide Targets bestimmt. Diese Verbindung und weitere Derivate werden zu diesem Zeitpunkt weiter charakterisiert um eine erste Struktur-Aktivitäts-Beziehung aufzustellen und die Eignung dieser Substanzklasse als potentielle Leitstruktur für neue, duale sEH/5-LO Liganden zu überprüfen.
Parallel dazu wurde eine Substruktur-basierte Strategie verfolgt um Rückschlüsse auf jene Strukturmerkmale zu ziehen, die für die Aktivität auf dem jeweiligen Target verantwortlich sein könnten. Dazu wurden in einem ersten Schritt alle aktiven Liganden zweier Targets auf ihre möglichst maximalen gemeinsamen Substrukturen reduziert. Für jedes Target wird damit ein Set von Substrukturen generiert, welches die für die Bindung an das jeweilige Target charakteristische Strukturmerkmale enthält. Diese Substrukturen, repräsentieren den chemischen Raum des jeweiligen Targets und stellten die Trainingsdaten für den entwickelten multiSOM Ansatz dar. Dieser Ansatz basiert auf dem automatisierten Vergleich von selbst-organisierenden Karten und hebt Gemeinsamkeiten zwischen diesen Substruktursets in einer leicht zu interpretierenden, visuellen Form hervor. Dies erlaubt die Identifizierung von gemeinsamen Substrukturen aus beiden verwendeten Substruktursets, welche potentielle duale Strukturelemente darstellen.
Die Validierung dieses Ansatzes erfolgte erneut auf Basis bekannter 5-LO- und sEH-Liganden. Unter 24 ausgewählten Verbindungen konnten neun Fragmente identifiziert werden, die auf einem der beiden Targets und 5 Fragmente, die auf beiden Targets im niedrig mikromolaren Bereich inhibierend wirken. Einer dieser dualen Fragmente wurden anschließend als Basis für eine Substruktursuche in einer Inhouse Datenbank verwendet. Die daraus resultierende Verbindung, die einen Teil des ursprünglichen Fragments beinhaltet, wirkt sowohl auf sEH als auch 5-LO in nanomolaren Konzentrationen inhibierend. Auch diese Verbindung wird zu diesem Zeitpunkt weiter charakterisiert und stellt eine vielversprechende Basis als Leitstruktur neuer dualer sEH/5-LO-Liganden dar.
Zusammenfassend lässt sich sagen, dass die vorgestellten Methoden neue Möglichkeiten bieten, das rationale Design von multitarget Liganden zu unterstützen. Die Pharmakophor-basierte Methode kann besonders dann von Vorteil sein, wenn bereits Strukturinformationen für beide Targets bzw. die bioaktiven Konformationen der Liganden vorliegen. Für einen ausschließlichen Liganden-basierten Ansatz stellt die Verwendung der MultiSOM, und damit die Identifizierung gemeinsamer Strukturelemente der Liganden, die bessere Methode dar.
Im zweiten Teil dieser Arbeit werden Studien zur Identifizierung neuer Farnesoid-X-Rezeptor (FXR) Partialagonisten beschrieben. Auch in diesem Fall wurden zwei unterschiedliche Strategien verfolgt. Da FXR eine starke strukturelle Anpassung abhängig vom gebundenen Liganden aufweist („induced fit“), sind rein strukturbasierte virtuelle Screening-Methoden nur eingeschränkt einsetzbar. Aus diesem Grund sollte zunächst ein Liganden-basierter Drug Repurposing Ansatz verfolgt werden, bei dem bereits zugelassene Wirkstoffe mit potentiell FXR-modulierenden Eigenschaften identifiziert werden sollten. Der Vorteil des Drug Repurposing besteht darin, dass die betrachteten Wirkstoffe bereits intensiv hinsichtlich Sicherheit und Bioverfügbarkeit untersucht wurden. Somit kann man sich bei der Entwicklung verstärkt auf die biologische Aktivität auf das neue Target konzentrieren.
Erneut wurden selbstorganiserende Karten (SOMs) verwendet, um zugelassene Wirkstoffe mit FXR-Aktivität zu identifizieren. Trainiert wurde die SOM auf einem Datensatz bestehend aus bekannten FXR-Agonisten zum einen und der DrugBank Datenbank mit zugelassen Wirkstoffen zum anderen. Die Eigenschaft der SOM Verbindungen mit ähnlicher biologischer Aktivität in räumlicher Nähe auf der Karte zu clustern führte zu einer Anhäufung an bekannten FXR-Agonisten auf einigen wenigen Neuronen. Auf solchen sogenannten Aktivitätsinseln wurden zusätzlich auch zugelassene Wirkstoffe platziert, wenn ihre Ähnlichkeit zu den FXR-Agonisten ausreichend hoch war. Die auf den Aktivitätsinseln angesiedelten Wirkstoffe wurden anschließend bestellt und hinsichtlich ihrer FXR-Aktivität in einem Transaktivierungs-Assay untersucht. Unter den bestellten Verbindungen konnten sechs Liganden mit einer signifikanten relativen FXR-Aktivierung identifiziert werden. Weitere Hinweise auf eine mögliche FXR-Aktivierung der Verbindungen gaben in der Literatur beschriebene Nebeneffekte, die mit einer FXR-Aktivierung in Zusammenhang stehen könnten. Die potentenste Verbindung, der zugelassenen Tyrosinkinase-Inhibitor Imatinib, wurde zusätzlich in Bezug auf FXR-basierte SHP mRNS Induktion untersucht. In qPCR-Experimenten konnte dabei eine mit GW4064 vergleichbare Induktion in HepG2 Zellen gezeigt werden. Diese Ergebnisse untermauern die aus der Literatur gewonnen Vermutung, dass Imatinib FXR-modulierende Eigenschaften besitzt und somit eine interessante Grundlage für die Entwicklung neuer FXR-Partialagonisten darstellt. Zu diesem Zeitpunkt werden weitere Imatinib-Derivate synthetisiert und diese Struktur als mögliche Leitstruktur charakterisiert.
In einer zweiten Studie wurde eine Kombination aus Liganden- und Struktur-basierten Ansatz verfolgt. Dabei wurden sämtliche Struktur-Informationen aus publizierten FXR-Kristallstrukturen und den darin kokristallisierten Liganden gebündelt, um die Auswirkungen des zu Beginn erwähnten induced-fit Effekts zu minimieren. Auf Basis der ko-kristallisierten Liganden wurden zunächst zwei Konsensus-Pharmakophormodelle erstellt. Diese Modelle wurden in einem anschließenden Schritt jeweils mit einem Konsensus-Pharmakophormodell, das mit Hilfe von Protein-Ligand-Interaktions-Fingerprints (PLIF) aus den korrespondieren Kristallstrukturen abgeleitet wurde, überlagert und kombiniert. Diese kombinierten Modelle vereinten sowohl Informationen der strukturellen Gemeinsamkeiten der Liganden als auch gemeinsame, relevante Interaktionspunkte zwischen Ligand und Rezeptor aus den Kristallstrukturen. Das Pharmakophor-Screening mit anschließender Docking Analyse führte zu 42 getesteten Verbindungen, von denen 12 Strukturen eine signifikante relative FXR-Aktivierung zeigten. Darunter konnte ein Partial-Agonist mit einem EC50 von 480 nM bei einer maximalen Aktivierung von ca. 14% im Vergleich zur Referenz GW4064 identifiziert werden. Auch diese Verbindung wird zum aktuellen Zeitpunkt weiter charakterisiert und könnte in Zukunft als Leitstruktur für neue FXR-Partialagonisten dienen.
In beiden Studien konnten neue FXR-Agonisten mit bisher noch nicht beschriebenen Scaffolds identifiziert werden. Es konnte gezeigt werden, dass die Verwendung bereits zugelassener Wirkstoffe für neue Indikationen eine attraktive Quelle für neue Leitstrukturen darstellen kann und im Zuge dessen bisher ungeklärte Nebeneffekte bekannter Wirkstoffe aufgeklärt werden können.
Abschließend lässt sich festhalten, dass selbstorganisierende Karten eine universelle Methode zur Erkennung und Analyse von polypharmakologischen Zusammenhängen darstellen. Des Weiteren lassen sich mit ihrer Hilfe chemische Räume repräsentieren und durch den in dieser Arbeit entwickelten MultiSOM-Ansatz direkt vergleichen. Dies ermöglicht auf intuitive und effiziente Weise die Identifizierung von überlappenden chemischen Räumen und somit möglicher polypharmakologischer Zusammenhänge.
Patienten mit akuter Dekompensation einer Leberzirrhose (AD) oder einem akut-auf-chronischen-Leberversagen (ACLF) stellen ein vulnerables Kollektiv für den Erhalt eines Erythrozytenkonzentrates (EK) dar. Zu den Ursachen zählen das häufige Auftreten einer gastrointestinalen Blutung, die Koagulopathie oder das Vorliegen einer chronischen Anämie. Während für viele andere Patientenkollektive das richtige Transfusionsmanagement bereits erforscht worden ist, fehlen diese Studien für Patienten mit Leberzirrhose, insbesondere für die neue Entität ACLF. Die vorliegende Studie soll die Auswirkung einer EK-Transfusion auf Morbidität und Mortalität dieser Patienten untersuchen.
Insgesamt wurden 498 Patienten mit der Diagnose einer Leberzirrhose, die zwischen den Jahren 2015 und 2019 auf eine Intensivstation der Universitätsklinik Frankfurt aufgenommen worden sind, retrospektiv analysiert. Für die statistische Auswertung wurde ein Prospensity-Score-Matching nach EK-Transfusion mit Adjustierung für mögliche Konfundierungseffekte durchgeführt. Der Einfluss der Transfusion auf die Mortalität wurde mithilfe von Kaplan-Meier-Kurven und multivariater Cox-Regression untersucht. Für die ACLF-Kohorte wurden ROC-Kurven zum Versuch der Identifizierung eines Transfusionstriggers und eines Zielhämoglobinwertes nach Transfusion angefertigt.
In der Gesamtkohorte wiesen transfundierte Patienten eine signifikant höhere Mortalitätsrate als Nicht-Transfundierte auf (28-Tages-Mortalität: 39,6% vs. 19,5%, p<0,001). Dabei wirkte sich die Transfusion primär bei Patienten mit ACLF negativ auf das Überleben aus. Nach Matching der Patienten nach Erhalt eines EKs und Adjustierung für potentielle Konfundierungseffekte blieb die Kurzzeitmortalität bei transfundierten Patienten mit ACLF weiterhin signifikant erhöht (28-Tages-Mortalität: 72,7% vs. 45,5%, p=0,03). Bei AD Patienten zeigte die Transfusion keinen signifikanten Einfluss auf das Überleben. Die multivariate Cox-Regression identifizierte die EK-Transfusion als unabhängigen Risikofaktor der Kurzzeitmortalität im ACLF (HR: 2,55; 95% KI 1,26 – 5,15, p=0,009). Die Identifizierung eines Transfusionstriggers oder eines Zielhämoglobinwertes war nicht möglich.
Die vorliegende Studie konnte zeigen, dass die EK-Transfusion einen Risikofaktor der Kurzzeitmortalität im ACLF, aber nicht für AD Patienten darstellt. Dieses Ergebnis macht fortführende Untersuchungen zur Ursachenforschung und zur Evaluierung des richtigen Transfusionsmanagements für Patienten mit ACLF notwendig.
Zur Reform der Einlagensicherung: Elemente einer anreizkompatiblen Europäischen Rückversicherung
(2020)
Bankeinlagen bis 100.000 Euro sind de jure überall im Euroraum gleichermaßen vor Verlusten geschützt. De facto hängt der Wert dieser gesetzlichen Haftungszusage unter anderem von der Ausstattung des nationalen Sicherungsfonds und der relativen Größe des Bankensektors in einer Volkswirtschaft ab. Um die Homogenität des Einlagenschutzes zu gewährleisten und die Bankenunion zu vollenden, bedarf es einer einheitlichen europäischen Einlagensicherung. Die bestehende implizite Risikoteilung im Euroraum ist ordnungspolitisch nicht wünschenswert. Ferner kann eine explizite und glaubwürdige Zweitsicherung Fehlanreize zur Übernahme exzessiver Risiken verhindern, bevor es zum Schadensfall kommt. Daher plädiert dieser Beitrag für ein zweistufiges, streng subsidiär organisiertes Rückversicherungsmodell: Nationale Erstversicherungen würden einen festgeschriebenen Teil, die europäische Rückversicherung nachrangig den Rest der Deckungssumme besichern. Die Rückversicherung gewährt diese Liquiditätshilfen in Form von Kassenkrediten. Weil die Haftung auf nationaler Ebene verbleibt, werden Risiken geteilt aber nicht vergemeinschaftet. Marktgerechte Prämien müssen nicht nur das individuelle Risikogewicht einer Bank sondern auch länderspezifische Risikofaktoren berücksichtigen. Zuletzt braucht der Rückversicherer umfangreiche Aufsichtsrechte, um die Zahlungsfähigkeit der Erstversicherer mit Hinblick auf die nationalen Haftungspflichten jederzeit sicherzustellen.
MutLα ist Bestandteil des Mismatch-Reparatur-Systems und spielt eine wichtige
Rolle bei der postreplikativen Reparatur von Kopierfehlern, der Detektion von DNASchäden
durch exogene Noxen und der Signalisierung von irreparablen DNALäsionen
an die Apoptosemaschinerie. MutLα setzt sich als Heterodimer aus MLH1
und PMS2 zusammen. Da sein Fehlen zur Entstehung von Krebs führt, werden
MLH1 und PMS2 zu den Tumorsuppressorproteinen gezählt.
Von vielen krebsassoziierten Proteinen, darunter p53, BRCA und c-Abl, ist bereits
bekannt, dass sie zwischen nukleärer und zytoplasmatischer Lokalisation wechseln.
Dagegen wurde MutLα in der Vergangenheit vorrangig in nukleärer Funktion und
Lokalisation wahrgenommen. Jedoch haben Brieger et al. kürzlich zahlreiche
Interaktionen mit zytoplasmatischen Proteinen aufgedeckt, was nahe legt, dass
MutLα möglicherweise auch wichtige zytosolische Aufgaben hat (Brieger et al.
2010a). Während der Import von MutLα in den Kern bereits aufgeklärt ist, gibt es
über den Export ins Zytosol bislang nur vage Kenntnisse. Hauptfokus dieser Arbeit
ist es deshalb, MutLα auf seine Fähigkeit zum nukleären Export zu untersuchen.
Wir konnten mithilfe eines von Henderson und Eleftheriou entwickelten in vitro
Export-Assays (Henderson, Eleftheriou 2000) zeigen, dass MutLα eine aktive
nukleäre Export-Sequenz im Bereich der Aminosäuren 578-595 von MLH1 besitzt.
Die gezielte Mutation von Leucinen in diesem Bereich veränderte die subzelluläre
Lokalisation von MutLα. Auch setzten solche Mutationen häufig die Stabilität und
die Mismatch-Reparatur-Aktivität des Proteins herab.
Die Untersuchung einer von Han et al. als pathogen beschriebenen Mutation in
diesem Bereich des MLH1-Gens, MLH1L582V (Han et al. 1995), zeigte, dass der
Defekt weder die Proteinstabilität noch die Reparatureigenschaft von MutLα
beeinträchtigte. Jedoch wies das veränderte Heterodimer eine eingeschränkte
Exportfähigkeit auf, sodass dieser Funktionsverlust ursächlich für die
Krebserkrankung des Mutationsträgers sein könnte.
Die gerüstlose aortale Bioprothese 3F nach 5 Jahren
Hintergrund: Die aortale Bioprothese 3F ist eine neue gerüstlose biologische Herzklappe, die aus drei gleichgroßen Segeln aus Pferdepericard besteht, welche in einer tubulären Form zusammengesetzt sind. Diese wird in die native Aortenwurzel implantiert, um somit die erkrankten Segel des Patienten zu ersetzen. Ziel dieser Studie ist es, die Leistungsfähigkeit dieser Erfindung zu beurteilen.
Methoden: In dem Zeitraum zwischen Januar 2002 und September 2004 wurden in der Klinik für Thorax-, Herz- und Gefäßchirurgie der Johann Wolfgang Goethe Universität Frankfurt 47 3F aortale Bioprothesen implantiert. Klinische Ergebnisse wie effektive Öffnungsfläche, Hauptgradienten und Auswurffraktion wurden bei der Entlassung der Patienten, nach 6 Monaten und danach jährlich beurteilt. Die Hauptnachuntersuchung war nach 5,2 ± 1,2 Jahren.
Ergebnisse: Die Nachuntersuchung wurde bei allen Patienten abgeschlossen. Die 30 Tages Sterblichkeit lag bei 2% (n=1). Die späte Sterblichkeit lag bei 22% (Herzbezogen n=4, nicht herzbezogen n= 8). 3 Patienten (6%) entwickelten eine Endokarditis, bei weiteren 2 war eine Reoperation nötig. 4 Patienten (8%) entwickelten ein paravalvuläres Leck, 6 Patienten (12%) hatten einen postoperativen Schlaganfall (4 mit Neueintritt von Vorhofflimmern), 5 Patienten (10%) benötigten eine Rethorakotomie aufgrund von Blutungen. In der Mitte der Laufzeit zeigte die 3F Bioprothese eine gute Hämodynamik mit einem signifikanten Fallen der Durchschnittsgradienten zu 14,5 ± 8,3 mmHg, eine durchschnittliche Öffnungsfläche von 1.4 ± 0,5 cm² und eine durchschnittliche Auswurffraktion von 65 ± 1,4 %. 4 Patienten waren in der NYHA Klasse II, alle anderen in NYHA I in der Mitte der Laufzeit.
Fazit: Die klinische Darbietung der neuen aortalen Bioprothese 3F ist vergleichbar mit regulären gerüstlosen Aortenklappen. Die einzigartigen Konstruktionsmerkmale machen die Implantation leichter und schneller im Vergleich zu konventionellen gerüstlosen Klappen.
Hintergrund: Als Komplikation einer Subarachnoidalblutung können zerebrale Infarkte auftreten. Arterielle Vasospasmen stehen im Verdacht diese auszulösen, jedoch wird zunehmend eine multifaktorielle Ätiologie diskutiert. Die orale Gabe des Calciumantagonisten Nimodipin als Prophylaxe stellt den einzigen pharmakologischen Therapieansatz mit nachgewiesener positiver Wirkung auf das Patientenoutcome dar. Durch die gute Wirksamkeit bei oraler Aufnahme erfolgt die intraarteielle Applikation in von Vasospasmen betroffene Gefäße. Weiterhin wird die Perkutane Transluminale Angioplastie bei fokalen hochgradigen Vasospasmen eingesetzt. Diese endovaskulären Verfahren sind bisher nicht in signifikanten randomisierten Studien untersucht worden.
Zielsetzung: Neu aufgetretene Infarktmuster von Patienten nach SAB wurden hinsichtlich Wirkung und möglicher Komplikationen dieser Therapieansätze untersucht.
Methoden: Die klinisch erfassten Daten und die Bildgebung der im Zeitraum von 01.01.2007 bis 31.12.2011 in der Neuroradiologie der Universitätsklinik Frankfurt am Main behandelten und in die Untersuchung eingeschlossenen 88 Patienten wurde erneut untersucht. Im Falle neu aufgetretener zerebraler Infarkte wurden die Infarktmuster hinsichtlich einer Ätiologie analysiert.
Ergebnisse: 53,4% der Patienten entwickelten nach SAB neue zerebrale Infarkte nach intraarterielle Nimodipinapplikation und zusätzlicher PTA in einzelnen Fällen. Hiervon konnten 89,4% ätiologisch zerebralen Vasospasmen zugeordnet werden. Bei 5,7% aller Patienten traten Infarkte im Zusammenhang mit Komplikationen der intraarteriellen Nimodipingabe und PTA in Form von Thrombembolien und einer Gefäßdissektion auf. Die Ätiologie eines Infarktmusters verblieb unklar.
Fazit: Es konnte kein Vorteil für die intraarterielle Gabe von Nimodipin und PTA bei refraktärem Vasospasmus gezeigt werden. Weiterhin traten in 5,7% des Patientenkollektivs ischämische Komplikationen auf, sodass beide Verfahren nicht als Standardtherapie bei Patienten mit Vasospasmus nach SAB empfohlen werden können.
In der Dissertation werden mit Hilfe der Grounded Theory Methodologie Möglichkeiten und Bedingungen von Museumsangeboten für Menschen mit Demenz erforscht.Die Arbeit versteht sich als erziehungswissenschaftlich-gerontologisch und nimmt dabei die Perspektive einer kritischen Kunst- und Kulturvermittlung ein.
Ziel der vorliegenden Arbeit war die Optimierung der Kristallzüchtung von eisenbasierten Supraleitern. Im ersten Teil lag der Fokus dabei auf der Züchtung der 1111-Verbindung unter Hochdruck/Hochtemperaturbedingungen (HD/HT), sowie der systematischen Untersuchung verschiedener Einflüsse der Züchtung dieser Familie unter Normaldruckbedingungen.
Die HD/HT-Experimente führten unter den gewählten Parametern, sowohl unter der Verwendung eines Flussmittels als auch ohne, nicht zur Stabilisierung der gewünschten Zielphase. Stattdessen kam es zur Phasenseparation So bildete sich immer im Inneren des verwendeten BN-Tiegels ein, häufig kugelförmig ausgeformtes, Gebilde, bestehend aus einer Fe-As-Phase. Dies gilt sowohl für NdFeAsO als auch LaFeAsO1-xFx. Bei der Verwendung von Salz als Flussmittel kam es neben dieser Fe-As-Phase auch häufig zur Bildung einer Cl-haltigen Phase. Auch zeigte sich, dass es zu einer B-Diffusion während des Versuches kam, sodass Selten-Erd-Oxoborate nachgewiesen werden konnten. Durch einen Versuch unter Normaldruckbedingungen zeigte sich, dass dies kein Problem in der Hochdrucksynthese ist, sondern ein grundlegendes Problem bei der Verwendung von BN mit den Selten-Erden ist.
Nachdem gezeigt wurde, dass eine systematische Untersuchung bzw. Optimierung der Züchtungsparameter der 1111-Verbindungen unter HD/HT-Bedingungen enorm schwierig ist, lag der weitere Fokus auf der Züchtung unter Normaldruckbedingungen. Dazu wurde zu Beginn gezeigt, dass die Verwendung von Quarzampullen bei Temperaturen bis zu 1200 °C nicht zu einer zusätzlichen Sauerstoffdiffusion führen. Dies ermöglichte es ohne zusätzliche Schweißarbeit oder hohen Kosten den Optimierungsprozess für ein geeignetes Temperatur-Zeit-Profil durchzuführen. Das so erhaltene Profil wurde anschließen für alle weiteren Versuche verwendet. Mit dieser Basis wurde daraufhin untersucht, welchen Einfluss die Menge an Flussmittel auf die Stabilisierung der Phase und demnach auf die Kristallzüchtung hat. Dabei zeigte sich, dass ein molares Material-zu-Flussmittel-Verhältnis von 1:7 die besten Resultate liefert. Der nächste Optimierungsschritt, die Frage nach einem geeigneten Sauerstoffspender, in Angriff genommen. Bei dieser Frage wurde sich auf einen Sauerstoffspender aus der Gruppe der Eisenoxide konzentriert. Es zeigte sich, dass, für das gewählte Temperatur-Zeit-Profil die Verbindung FeO und Fe3O4 die besten Resultate liefern. In diesen Versuchen ist es gelungen Kristalle zu züchten die Kantenlängen bis zu 800 μm aufweisen. Allerdings zeigten Vergleichsversuche mit einen anderen Temperatur-Zeit-Profil, dass Fe2O3 in diesen Fällen die besten Resultate liefern. Dies macht deutlich, dass es bisher keine vollständige Kontrolle in der Züchtung der 1111-Verbindung gibt. Die Veränderung eines Züchtungsparameters bedeutet, dass auch alle anderen Parameter erneut geprüft werden müssen. Somit zeigte sich, dass eine fundierte und systematische Untersuchung der Züchtungsparameter notwendig ist.
Nachdem die grundlegenden Fragen für die undotierte Verbindung NdFeAsO beantwortet wurden, wurde untersucht, welche Sauerstoff-Fluorspenderkombination bei gegebenem Temperatur-Zeit-Profil optimal für den Kristallwachstum und den Fluoreinbau ist. Die erhaltenen Resultate belegten, dass in diesem Fall Fe3O4 und FeF2 zu den besten Resultaten führte. Die so gezüchteten Kristalle wiesen Kantenlängen bis zu 800 μm auf und Messungen des elektrischen Widerstandes zeigten einen maximalen Tc ≈ 53 K mit einen RRR-Wert im magnetischem Bereich von über 10. Damit unterscheiden sich die gezüchtete Kristalle hinsichtlich ihrer Qualität um den Faktor ~3 von den bisherigen Einkristallen bekannt aus der Literatur.
Durch die Ermittlung des reellen Fluorgehalts der Proben mittels WDX in Kombination mit elektrischen Widerstandsmessungen wurde ein vorläufiges Phasendiagramm erstellt.
Magnetische Messungen unter Normaldruck und Hochdruckbedingungen ermöglichten es die Anisotropie zwischen der ab- Ebene und der c-Ebene zu messen, sowie das Verhalten des elektrischen Widerstandes in Abhängigkeit vom Druck.
Es zeigte sich dabei, dass ab einem Druck von etwa 22.9 GPa die Supraleitung in diesen Kristallen nicht mehr vorhanden ist, und der Kristall wieder normalleitend ist. Mit weiter steigendem Druck steigen die Absolut-Widerstandswerte ebenfalls wieder an, was auf eine mögliche ferromagnetische Ordnung deutet.
Im zweiten Teil der Arbeit lag der Fokus auf einer Verbindung aus der 122-Familie der Pniktide: SrFe2As2. Zu Beginn wurde untersucht, welches der drei gewählten Tiegelmaterialien BN, Al2O3 oder Glaskohlenstoff, für Züchtungen dieser Phase am geeigneten ist. In allen Versuchen konnte die gewünschte Zielphase stabilisiert werden, jedoch kam es bei der Verwendung von Glaskohlenstoff zu Diffusion von Kohlenstoff aus dem Tiegel in die Probe hinein, sodass C-haltige Phasen nachweisbar waren. Ebenso zeigte sich, dass es auch eine Diffusion vom Material in den Tiegel hinein gegeben hat. Diese Probleme traten auch bei der Verwendung von Al2O3 auf. Durch ein Röntgenpulverdiffrakgtogramm konnte eine Al-haltige Verbindung in der Probe nachgewiesen werden. Ein weiterer Nachteil dieses Materials ist die Benutzung des Tiegels durch die Schmelze. Von den drei Materialien erwies sich BN als am besten geeignetes Tiegelmaterial. Es kommt zu keiner Benetzung oder Diffusion, auch der Fremdphasenanteil ist sehr gering in dieser Probe.
Mit diesem Wissen wurde im weiteren Verlauf ein quasi-binäres Phasendiagramm des Systems SrFe2As2-FeAs erstellt. Die intermetallische Verbindung FeAs fungiert hierbei als Flussmittel. Eine wichtige Frage in diesem Zusammenhand ist die Frage ob das System kongruent erstarrend ist. Diese Frage lässt sich anhand der vorhandenen DTA-kurven nicht eindeutig beantworten, zeigte das System bei Aufheizen keine zusätzlichen Schmelzprozesse, es scheint allerdings, dass es in der Schmelze zu einem Abdampfen von Arsen kommt. Somit verschiebt sich die Zusammensetzung der Schmelze und beim Abkühlen treten zusätzliche Erstarrungsprozesse auf. Die Schmelztemperatur TM wurde so auf T = 1320 °C bestimmt. Mit steigendem Flussmittelanteil verschob sich diese Temperatur zu niedrigeren Temperaturen unter 1200 °C, was eine Züchtung in Quarzampullen wieder möglich macht.
Die Ergebnisse in dieser Arbeit liefern eine fundierte Grundlage für weitere Optimierungen. So ist zum Beispiel der Frage nach dem am besten geeigneten Sauerstoffspender nicht auf die Selten-Erd-Oxide eingegangen worden. Auch ob die Verwendung eines anderen Salzes, wie zum Beispiel den Iodiden für die Züchtung bessere Resultate liefert kann weiterhin untersucht werden.
Nachdem der Schmelzpunkt von SrFe2As2 bestimmt wurde und im quasi-binärem Phasendiagramm ein Eutektikum vorhanden ist, kann mit den weiteren Optimierungsschritten für die Kristallzüchtung dieses Systems begonnen werden. Dazu gehört die Entwicklung eines Temperatur-Zeit-Profils, sowie im nächsten Schritt Züchtungen von dotierten Verbindungen.
Der Inhalt dieser Arbeit ist die Entwicklung und Evaluation einer mobilen Webanwendung für die Annotation von Texten. Dem Benutzer ist es durch diese Webanwendung, im folgenden auch MobileAnnotator genannt, möglich Wörter und Textausschnitte zu kategorisieren oder auch mit Wissensquellen, zum Beispiel Wikipedia, zu verknüpfen. Der MobileAnnotator ist dabei für mobile Endgeräte ausgelegt und insbesondere für Smartphones optimiert worden.
Für die Funktionalität verwendet der MobileAnnotator die Architektur des bereits existierenden und etablierten TextAnnotators. Dieser stellt bereits eine Vielzahl von Annotations Werkzeugen bereit, von denen zwei auf den MobileAnnotator übertragen wurden. Da der TextAnnotator vollständig für einen Desktopbetrieb ausgelegt wurde, ist es jedoch nicht möglich diese Werkzeuge ohne Anpassungen für ein mobiles Gerät umzubauen. Der MobileAnnotator beschränkt sich somit auf ein Mindestmaß an Funktionen dieser Werkzeuge um sie dem Benutzer in geeigneter Art und Weise verfügbar zu machen.
Für die Evaluation der Benutzerfreundlichkeit des MobileAnnotator und dessen Werkzeuge wurde anschließend eine Studie durchgeführt. Den Probanten war es innerhalb der Studie möglich Aussagen über die Bedienbarkeit des MobileAnnotators zu treffen und einen Vergleich zwischen dem Mobile- und TextAnnotator zu ziehen.
In diesem Beitrag wird ein hochschuldidaktisches Konzept zur Förderung des reflektierten Umgangs mit Heterogenität im schulischen Kontext unter Verwendung digitaler Lerneinheiten vorgestellt. Im Projekt "Level – Lehrkräftebildung vernetzt entwickeln" (Qualitätsoffensive Lehrerbildung BMBF, Goethe-Universität Frankfurt) wurden in den Bildungswissenschaften digitale Lerneinheiten zu den Heterogenitätsdimensionen "Geschlecht", "kultureller Hintergrund", "sozio-ökonomischer Hintergrund", "kognitiv-motivationale Lernvor-aussetzungen" und "Behinderung" konzipiert und in der universitären Lehre erprobt. Die Auswahl der erstellten Lerneinheiten begründet sich auf Ergebnissen der PISA-Studien sowie der UN-Behindertenrechtskonvention. Die Lerneinheiten werden in Blended-Learning-Szenarien eingesetzt und zielen auf den Aufbau von Fachwissen und professionellen Überzeugungen sowie Reflexivität. Auf der Grundlage individuellen Vorwissens werden von den Lernenden (videobasierte) Aufgaben bearbeitet, die der Perspektivübernahme und Selbstreflexion im Hinblick auf Kategorisierungen dienen und die Bearbeitung fachwissenschaftlicher Texte und aktueller Studien beinhalten. Arbeitsergebnisse können digital im Peer-Feedback bearbeitet sowie mit einem digitalen Portfolio verbunden werden. Das Onlineformat ermöglicht die fächer- und phasenübergreifende Nutzung durch Dozierende sowie Ausbilder_innen an Studienseminaren. Zusätzlich zu den fünf Lerneinheiten wurden eine einführende Version für Studierende und eine erweiterte Version für Lehrende erstellt, die einen Einblick in Aufbau und Struktur des Formats gibt und als "pädagogischer Doppeldecker" konzipiert ist. Die formative Evaluation mit Lehramtsstudierenden und Ausbilder_innen ergab positive Ergebnisse hinsichtlich der Einsetzbarkeit der Lerneinheiten in der Lehramtsausbildung.
Hintergrund: Träger eines bestimmten Haplotyps des Gens der GTP Cyclohydrolase (GCH1) gaben im Anschluss an eine Diskektomie nach chronischer lumbaler Radikulopathie weniger Schmerzen an und hatten in experimentellen Schmerzmessungen höhere Schmerzschwellen. Die ex-vivo GCH1-Hochregulierung und BH4-Produktion nach Forskolinstimulierung war reduziert, während die Grundwerte der BH4-Konzentration nicht verändert waren. Diese Beobachtungen legen nahe, dass der Haplotyp hauptsächlich Veränderungen zeigt, wenn das GCH1-System provoziert wird. Diese Studie zielt darauf ab, (1) diese Hypothese zu testen und (2) die schmerzprotektiven Eigenschaften, die diesem Haplotyp zuvor zugeschrieben wurden in unabhängigen Rahmen zu reproduzieren. Methodik: Hierzu wurden experimentelle Schmerzmodelle mit Sensitisierung (lokale Hautentzündung, topische Capsaicinapplikation) und ohne Sensitisierung (punktuell-mechanischer Druck, stumpfer Druck, thermischer und elektrischer Schmerz) an 10 homozygoten Trägern und 22 homozygoten Nichtträgern des angeblich schmerzprotektiven GCH1-Haplotyps durchgeführt. GCH1-, iNOS-Hochregulierung und BH4-Produktion wurden ex-vivo in Leukozyten nach LPS-Stimulation für 24 Stunden ermittelt. Ergebnisse: Träger dieses GCH1-Haplotyps hatten höhere Schmerzschwellen für punktuell-mechanischen Druck (von Frey Haare) im Anschluss an eine lokale Hautentzündung (18.1 ± 11.3 vs. 9 ± 2.8 g; p = 0.005) und im kleineren Rahmen für thermischen Schmerz nach Hyperalgesieinduktion durch Capsaicincreme (35.2 ± 0.9 vs. 36.6 ± 2.4 _C; p = 0.026). Dem hingegen konnten bei den Schmerzmodellen ohne Sensitisierung keine genotypabhängigen Effekte beobachtet werden. GCH1-, BH4 und iNOS-Hochregulierung in Leukozyten nach 24-stündiger LPS-Stimulation waren vermindert bei Trägern des GCH1-Haplotyps, woraus sich schließen lässt, dass sich die Genotypgruppen im Hinblick auf die Regulationsvorgänge im Biopterinstoffwechsel unterscheiden. Schlussfolgerung: Diese Studie bestätigt die vorherigen Befunde, dass eine verminderte GCH1-Funktion oder GCH1-Induzierbarkeit als Folge von genetischen Polymorphismen einen schmerzprotektiven Effekt mit sich bringt. Als Erweiterung der Vorresultate zeigt diese Arbeit, dass sich der schmerzprotektive Effekt vorzugsweise in Schmerzmodellen mit Sensitisierung ausprägt. Dies legt eine besondere Rolle von BH4 bei spezifischen Schmerzprozessen nahe.
Bislang sind die strukturellen Voraussetzungen für die Selektivität von Agonisten an den Retinoid Rezeptor Subtypen RXRα, RXRβ und RXRγ kaum erforscht, obwohl RXR-Modulatoren, die eine Subtypen-Präferenz aufweisen, aufgrund der unterschiedlichen Expressionsmuster der Subtypen Gewebe-spezifische Effekte vermitteln und somit Nebenwirkungen verringern könnten. Der Grund dieser Forschungslücke liegt teilweise darin, dass die Entwicklung Subtypen-selektiver RXR-Agonisten aufgrund der enormen strukturellen Ähnlichkeit der Ligandbindestellen in den RXR-Subtypen - alle Aminosäuren, die die Bindungsstellen bilden sind identisch - als unerreichbar angesehen wurde. Die Entdeckung des Naturstoffs Valerensäure als RXR-Agonist mit ausgeprägter Präferenz für den RXRβ-Subtyp hat jedoch gezeigt, dass Subtypen-selektive RXR-Modulation möglich ist249 und SAR-Studien an unterschiedlichen RXR-Ligand-Chemotypen haben in der Folge bestätigt, dass die Entwicklung von RXR-Liganden mit Subtypen-Präferenz erreicht werden kann.
Auf der Basis von Valerensäure und der in früheren Arbeiten entwickelten RXR-Agonisten wurden in dieser Arbeit Strukturmodifikationen identifiziert, die zu einer RXR-Subtypen-Präferenz beitragen. Durch die Verschmelzung dieser Strukturelemente ist es gelungen, einen neuen RXR-Agonist-Chemotyp (A) zu entwerfen, der durch strategische Methylierung und weitere Strukturmodifikationen zur Präferenz für jeden Subtyp optimiert werden konnte.
In einem Adipozyten-Differenzierungsexperiment konnte gezeigt werden, dass RXRα der wichtigste Heterodimer-Partner von PPARγ während der Adipogenese ist. Ferner unterstrich diese biologische Untersuchung das Potenzial von 99, 103 und 105 als Subtyp-präferentielle RXR-Agonisten in vitro Experimenten zu dienen.
Auf der Grundlage dieser Ergebnisse wurde eine mögliche Rolle von Acrylsäurepartialstrukturen natürlicher RXR-Liganden basierend auf dem zuvor entwickelten Chemotyp untersucht. Hierzu wurden das α-Methylacrylsäuremotiv des Naturstoffs Valerensäure (18) und das β-Methylacrylsäuremotiv des endogenen RXR-Agonisten 9-cis-Retinsäure in den Chemotyp A integriert (Chemotyp B), um die Rolle dieser Acrylsäuregruppen bei der Vermittlung der RXR-Subtypen-Selektivität zu untersuchen. Die Strukturmodifikationen an B zeigten, dass nur die α-Methyl-substituierte Acrylsäurekette toleriert bzw. von RXRβ präferiert wurde, was die RXR-Präferenz der Valerensäure (18) unterstützte.
In dieser Arbeit konnte gezeigt werden, dass RXR-Liganden mit Subtypen-Präferenz realisierbar sind und durch gezielte Strukturmodifikationen in ihrer Präferenz gesteuert werden können. Die Erkenntnisse zu den Struktur-Wirkungs-Beziehungen der neuen RXR-Agonist-Chemotypen A und B erweitern den Wissenstand über die strukturellen Voraussetzungen von RXR-Liganden für die Subtypen-Präferenz deutlich.
In ihrem Gespräch beschäftigen sich Prof. Dr. Bekim Agai, geschäftsführender Direktor des Instituts für Studien der Kultur und Religion des Islam, und Ulrike Jaspers, Redakteurin von "Forschung Frankfurt", mit dem Wahrheitsanspruch der Religionen, der Debattenkultur in Deutschland, der jungen islamischen Theologie, den fundamentalistischen Strömungen und anderem mehr.
Geoelektrische Methoden sind weit verbreitet und werden häufig zur Erkundung des oberflächennahen Untergrundes eingesetzt. Angewendet werden standardmäßig meist nur linienhafte Anordnungen der Sender- und Empfängerelektroden, die nur wenige Zehner Meter lang sind. Hierdurch haben diese Methoden nur geringe Eindringtiefen. Um größere Eindringtiefen und 3-dimensionale Informationen über den Untergrund zu erhalten, sind in der vorgestellten Studie die Empfänger- und Senderdipole in mehr oder weniger regelmäßigen Abständen über das Untersuchungsgebiet verteilt worden. Mit jeder Empfängerstation sind kontinuierlich die elektrischen Spannungen in bis zu drei Richtungen aufgezeichnet worden. Für die Einspeisungen wurde ein Rechtecksignal verwendet, das sich gut von den Störfrequenzen und den natürlichen Spannungen abhebt. Die Richtungen der Einspeisedipole sind entsprechend den örtlichen Gegebenheiten, jedoch möglichst parallel zu den Messrichtungen, gewählt worden. Zur Auswertung der erhobenen Messdaten wurde ein Programmpaket entwickelt, das eine weitestgehend automatisierte Auswertung der Daten erlaubt. Die Bestimmung der scheinbaren spezifischen Widerstände und ihrer Messfehler wurde an den fouriertransformierten Datenzeitreihen durchgeführt. Hierdurch konnten Störeinflüsse minimiert werden und es wurde möglich selbst stark verrauschte Datensätze auszuwerten. Um die erhobenen Daten interpretieren zu können sind die berechneten scheinbaren spezifischen Widerstände als Grundlage für Inversionen und Modellstudien verwendet worden. Die oben beschriebene Methode wurde im Rahmen der vorliegenden Arbeit in zwei unterschiedlichen Messgebieten angewandt.
Messgebiet im Hohen Vogelsberg
Im Juli 2007 wurde damit begonnen, die Forschungsbohrung Sichenhausen-Eschwald im Hohen Vogelsberg abzuteufen. Ziel war es, Informationen über den strukturellen Aufbau des größten geschlossenen Vulkankomplexes Mitteleuropas zu gewinnen. Die Gesteinsansprache der Tiefbohrung lieferte bereits relativ früh Hinweise darauf, dass ein großer magmatischer Körper aufgeschlossen wurde.Aufgrund der begrenzten räumlichen Aussagekraft der Bohrung und fehlender Geländebefunde war es nicht möglich, den Mechanismus der Platznahme und die Größe des Körpers näher zu beschreiben. Die Kampagne hatte das Ziel diese Lücke zu schließen und ein 3-dimensionales Modell des Untergrundes zu erstellen.In dem annähernd quadratischen Untersuchungsgebiet, das eine Fläche von ca. 25 $km²$ aufweist, wurden 20 Datenlogger zur Aufzeichnung der elektrischen Spannungen aufgebaut. Die Empfängerdipole waren zwischen 20 m und 30 m lang. Insgesamt wurden 36 Stromeinspeisungen mit Stromstärken zwischen 28 A und 40 A an 16 unterschiedlichen Positionen für jeweils 2 bis 3 verschiedene Dipolrichtungen vorgenommen. Die Einspeisedipole waren zwischen 100 m und 300 m lang. Insgesamt konnten 1.439 scheinbare spezifische Widerstände berechnet werden.Die Ergebnisse der Modellierungen und der Inversion der Daten zeigen, dass mit der Forschungsbohrung ein domartiger Körper angebohrt wurde. Anhand der Ergebnisse kann die räumliche Ausdehnung des Körpers eingegrenzt und ein vorher noch nicht kartierter Gang nachgewiesen werden.
Messgebiet im Bereich der Kinzigtalsperre
Das etwa Ost-West verlaufende Kinzigtal bildet die naturräumliche und geologische Grenze zwischen dem vulkanischen Vogelsberg im Norden und dem, in diesem Bereich aus Sedimentgesteinen aufgebauten, Spessart im Süden.Die zwischen Steinau a. d. Str. und Bad Soden-Salmünster befindliche Kinzigtalsperre dient dem Hochwasserschutz und der Regulierung des Pegels der Kinzig bei Dürreperioden. Der aufgestaute See ist relativ flach und weist im Normalstau maximale Tiefen von ca. 6~m auf. Der Stausee ist jedoch über weite Teile etwa 4~m tief. In dieser Kampagne betrug der Abstand zwischen den einzelnen Empfängerstationen etwa 100 m bis 300 m. Es wurde aufgrund der beengten Platzverhältnisse eine Dipollänge von ca. 48 m für die Einspeise- und die Empfängerdipole im Messgebiet gewählt. Insgesamt wurden 14 Empfängerstationen im Messgebiet aufgebaut, von denen sich Neun auf dem Seegrund befanden. Das Messraster orientierte sich am vermuteten Verlauf der Kinzigtalstörung. An 8 Positionen sind in 21 Richtungen elektrische Ströme mit Stärken zwischen 2,2 A und 40 A in den Untergrund eingespeist worden. Es konnten 536 scheinbare spezifische Widerstände berechnet werden. Ziel war es, den Verlauf der Störung näher zu bestimmen und die Tiefe der im Untergrund vorhandenen salinären Grundwässer zu bestimmen. Die Bestimmung des Verlaufs der Kinzigtalstörung sowie die Tiefenbestimmung der salinären Grundwässer war mit den erhobenen Daten jedoch nicht möglich.
Die Rassenmischung bekam in der Entwicklung der Sozialwissenschaften in Brasilien immer wieder neue Bedeutungen, um sich an jeden politischen Zusammenhang anzupassen. Sie wurde von den Männern des Wissens als Problem und später als Lösung angesehen – nämlich durch die Aufhellung – gemäß der evolutionären Rassentheorien Ende des 19. Jahrhunderts. Aber vor allem in den 1930er Jahren betrachteten einige Intellektuelle Brasiliens, wie Gilberto Freyre, die Mischung der drei Rassen, die das Volk Brasiliens bilden, als Bestandteil der Nation. Eine solche Vorstellung brachte juristische und politische, manchmal unmerkliche Folgen für den Platz des Mischlings innerhalb der brasilianischen Gesellschaft. Dieser wird als Notausstieg Mulatte nach Carl Degler oder als epistemologisches Hindernis nach Eduardo de Oliveira e Oliveira verstanden. Der Zweck dieser Arbeit besteht darin, aufzuzeigen, inwiefern jene Tradition eine tiefe Auseinandersetzung verbirgt und wie sie juristische Auswirkungen in der Gegenwart hervorruft, z.B. in Bezug auf die Debatte über Rassenquoten an öffentlichen Universitäten.
Die Detektion und die Charakterisierung von Leberläsionen gehört zu den wichtigsten Aufgaben der radiologischen Leberdiagnostik. Dafür stehen verschiedene bildgebende Verfahren wie Sonographie, Computertomographie (CT) und Magnetresonanztomographie (MRT) zur Verfügung. Aufgrund der technischen Verbesserungen und der Entwicklung von neuen Sequenzen zur Leberbildgebung in der MRT hat sich die Diagnostik von fokalen Leberläsionen entscheidend verbessert. Verbunden mit dem Einsatz von modernen MRT-Kontrastmitteln ist die MRT in den letzten Jahren zum Goldstandard für die bildgebende Diagnostik von Lebertumoren, vor allem in deren Differentialdiagnose, avanciert. Magnevist® (Gd-DPTA), wurde 1988 als erstes extrazelluläres MRT-Kontrastmittel auf dem Markt eingeführt, und ist seither verfügbar. Resovist® (SHU 555 A) ist ein leberspezifisches, superparamagnetisches Kontrastmittel bestehend aus Eisenoxid (SPIO)- Partikeln, das seit 2001 für die Magnetresonanztomographie der Leber zugelassen ist. Als ein extrazelluläres Kontrastmittel ist Gadovist® (Gadobutrol), das einzige 1.0 molare Kontrastmittel, seit dem Jahr 2000 von der deutschen Gesundheitsbehörde (BfArM) für die Magnetresonanztomographie des zentralen Nervensystems zugelassen. Das Sicherheitsprofil, Kontrastverhalten und die Wertigkeit von Gadovist® in der Diagnostik der Leber wurde unter Verwendung unterschiedlicher Sequenzprotokolle in Phase-III-Studien weiter untersucht. Als ein Teil einer klinisch offenen, randomisierten, doppelblinden, interindividuell kontrollierten Phase III-Studie wurden 60 Patienten mit dem hochgradigen Verdacht auf eine Leberläsion oder mit einer bekannten Leberläsion an unserem Institut in diese Studie eingeschlossen. Der Hälfte der Patienten wurde Gadobutrol (Gadovist®, Molarität 1,0 mol/l), der anderen Hälfte Gd-DTPA (Magnevist®, Molarität 0,5 mol/l) intravenös im Bolus für die MRTBildgebung der Leber appliziert. Hierbei wurden keine schwerwiegenden Nebenwirkungen registriert. Die Sicherheit und Verträglichkeit von Gadobutrol war mit der von herkömmlichen, Gadolinium-haltigen MRT-Kontrastmitteln vergleichbar. Routinemäßig wurden weitere Vergleichsuntersuchungen bei den Patienten aufgrund der vorliegenden Erkrankung durchgeführt. Als Goldstandard zur Erfassung der Leberläsionen wurden MRT-Untersuchungen mit Resovist® (50 Patienten), CT-Untersuchungen (10 Patienten), Sonographie, Biopsie, chirurgische Maßnahmen, Szintigraphie und Laboruntersuchungen eingesetzt. In der dynamischen und statischen Gd-verstärkten MRT wiesen die einzelnen Läsionen in Abhängigkeit vom Vaskularisationsgrad ein spezifisches Kontrastverhalten auf, was eine Unterscheidung in maligne und benigne zu einem hohen Grad ermöglichte. In der eisenverstärkten MRT zeigte sich die T2- gewichtete Sequenz als die geeignetste Methode zur Detektion und Differenzierung der Leberläsionen. Besonders bei den gutartigen Lebertumoren mit Kupffer’schen Sternzellen, wie FNH oder hoch differenzierten HCC’s, war ein signifikanter Signalintensitätsverlust zu evaluieren. Anders hingegen zeigten die undifferenzierten bis mäßig differenzierten HCC’s und maligne Lebermetastasen keinen wesentlichen Signalintensitätsabfall. In einem Vergleich mit dem Goldstandard wurden die Sensivität, die Spezifität und die Genauigkeit der nativen-MRT, Gd-MRT, SPIO-MRT/CT und SPIO-MRT ermittelt. Der Einsatz von MRT-Kontrastmitteln führte zur Erhöhung von Sensivität, Spezifität und Genauigkeit bei der Untersuchung der Leberläsionen im Vergleich zur MRT ohne Kontrastmittel. Die Sensivität von Gadolinium-MRT (94%) war vergleichbar mit der von SPIO-MRT/CT (96%) und SPIO-MRT (95%). Im indirekten Vergleich wurde für die Gadobutrol-MRT eine höhere Sensivität (100%) als für die Gd-DTPA-MRT (86%) dokumentiert. Die Spezifität war bei Gadolinium-MRT mit 88% schlechter als bei SPIO-MRT/CT (95%) und SPIO-MRT (95 %). In der indirekten Evaluierung zeigte sich für die Gadobutrol-MRT eine höhere Sensivität (100%) und Spezifität (91%) als für die Gd-DTPA-MRT (Sensivität 86%, Spezifität 84%). Die diagnostische Genauigkeit der Gd-DTPA-verstärkten MRT war mit 85% schlechter als die der Gadobutrol-verstärkten MRT (96%). Jedoch war zwischen der Genauigkeit von Gadobutrol-MRT (96%), SPIO-MRT/CT (96%) und SPIO-MRT (95%) kein statistisch signifikanter Unterschied feststellbar. Insgesamt zeigte sich für die Gadobutrol-verstärkte MRT im Vergleich zur Gd-DTPAverstärkten MRT eine verbesserte Sensivität, Spezifität und diagnostische Genauigkeit. Aufgrund des interindividuellen Ansatzes der Studie konnte kein direkter Vergleich der Wertigkeit zwischen den beiden extrazelluären Kontrastmitteln dargestellt werden. Die Ergebnisse dieser Studie weisen Gadovist® als ein ausgezeichnetes extrazelluläres Kontrastmittel mit gutem Sicherheitsprofil, hoher Detektionsrate, ausgezeichneter Charakterisierung von Lebertumoren und guter diagnostischer Genauigkeit aus.
Die vorliegende Arbeit diente der Gewinnung neuer Erkenntnisse über die historische Entwicklung und Typisierung von Fragesätzen. Die Analyse basiert auf Materialien verschiedener indogermanischer Sprachen (Griechisch, Armenisch, Gotisch, Altkirchenslavisch, Altrussisch) sowie einer außerindogermanischen kaukasischen Sprache (Altgeorgisch). Primär wurden Bibeltexte aus dem Alten und Neuen Testament anhand von Faksimileausgaben und elektronischen Textcorpora untersucht. Die Arbeit demonstrierte anhand von über 540 Beispielen, welche Kriterien, graphische oder grammatische Mittel, Fragewortstellung oder Satzgliederfolge, in den überlieferten Texten für die Entschlüsselung von Fragesätzen hilfreich waren. Für jede betrachtete Sprache wurde eine möglichst ausführliche Klassifikation der Hauptfragesatztypen vorgelegt. Ferner gehörte zum Untersuchungsobjekt der Arbeit die in den Fragesätzen implizierte Antworterwartung. Für die weitere Analyse dieser Erscheinung wurden die Fragesätze aufgrund ihrer formalen Kennzeichen für Antworterwartung und Bedeutung eingeteilt. Anhand des übereinzelsprachlichen Vergleiches war es möglich, die spezifischen interrogativen Charakteristika aufzuzeigen, die in den einzelnen Sprachen für die jeweiligen schriftlich fixierten Perioden typisch waren. Wenn relevant, wurden auch Daten aus jüngeren Sprachstufen herangezogen. Die zum Schluss vorgestellte Gegenüberstellung von indogermanischen und kaukasischen Sprachen war erforderlich, um nicht nur genetisch bedingte sprachspezifische Charakteristika von Fragesätzen aufzuzeigen, sondern auch allgemeinsprachliche spezifische Merkmale zu eruieren.
Ziel unserer retrospektiven Studie war es, die refraktiven und kornealen Veränderungen nach DMEK bei pseudophaken Patienten, die sich auf Grund einer endothelialen Hornhauterkrankung behandeln ließen, zu untersuchen. Durch unsere einheitlich pseudophake Patientenkohorte wollten wir untersuchen, ob sich die refraktiven Veränderungen nach DMEK von den bereits bekannten Änderungen bei einer simultan durchgeführten Katarakt- und DMEK-Operation sogenannte „Triple“-DMEK unterscheiden. Primärer Endpunkt der Studie war die Veränderung der Refraktion unter besonderer Berücksichtigung des sphärischen Äquivalents (SEQ) des jeweiligen pseudophaken Auges nach DMEK. Sekundäre Endpunkte umfassten die Entwicklung des Visus, der CCT, der ECD und verschiedener kornealer Parameter, die mittels Scheimpflug- Tomographie ermittelt wurden.
In der vorliegenden Arbeit erfolgte hierzu die retrospektive Analyse von Daten, die in den Patientenakten dokumentiert und digital gespeichert waren (Pentacam® HR). Es wurden 109 Augen von 95 Patienten, die sich im Zeitraum von Februar 2015 bis Dezember 2018 mittels DMEK in unserem Zentrum behandeln ließen, in die Studie eingeschlossen. Davon stammten 66 Augen (61%) von weiblichen und 43 Augen (39%) von männlichen Patienten. Es handelte sich bei 61 Augen (56%) um ein linkes und bei 48 Augen (44 %) um ein rechtes Auge. Die Patienten waren 20 bis 91 Jahre alt. Das mittlere Alter zum Zeitpunkt der DMEK-Operation betrug 71,9 Jahre (SD ±10,23). Der Altersmittelwert der Männer lag bei 70,4 Jahren (SD 11,23, Spannweite: 20-84) und der der Frauen bei 72,9 Jahren (SD 9,49, Spannweite: 47-91). Der mittlere Nachbeobachtungszeitraum betrug 10,47 Monate (SD 6,78, Spannweite: 1-28 Monate).
Für das SEQ konnte bei Betrachtung aller ausgewerteten Daten eine leichte Tendenz in Richtung eines „hyperopen shifts“ mit einer mittleren Veränderung des SEQ von + 0,1 D gezeigt werden, die jedoch nicht statistisch signifikant war. Zwischenzeitlich kam es im Nachbeobachtungszeitraum zu einer klaren Tendenz hinsichtlich einer Myopisierung bei Betrachtung aller ausgewerteten Daten. Der „hyperope shift“ konnte erst am Ende, möglicherweise infolge einer deutlich reduzierten Patientenzahl, beobachtet werden. In der Subgruppe „vollständige Kontrollen“ für das SEQ zeigte sich eine Tendenz hinsichtlich einer leichten Abnahme des SEQ, die jedoch ebenfalls nicht statistisch signifikant war und aufgrund der geringen Gruppengröße (n=32) kritisch betrachtet werden sollte. In unserer Kohorte konnte somit keine eindeutige Aussage über eine postoperative Änderung des SEQ in Richtung eines „hyperopen shifts“ oder „myopen shifts“ gemacht werden. Die Refraktion verhielt sich in unserem Patientenkollektiv nach DMEK insgesamt weitestgehend stabil. Insofern sind refraktive "Überraschungen", wie sie weiterhin häufig nach "Triple"-DMEK zu beobachten sind, bei zuvor pseudophakisierten Patienten in einem weitaus geringeren Maße zu erwarten. Unter den mittels Scheimpflug-Technologie untersuchten kornealen Parametern wies lediglich der posteriore Astigmatismus signifikante Veränderungen im Sinne einer Reduktion der kornealen Krümmung auf. Indirekt heben unsere Ergebnisse damit die Bedeutung des posterioren Hornhautprofils auf die postoperative Refraktionsentwicklung und somit auch auf die IOL-Kalkulation bei "Triple"-DMEK-Prozeduren hervor. Außerdem scheint der postoperative Anstieg der Sehschärfe mit den gleichfalls signifikanten Änderungen der kornealen Densitometrie in der 2-6 mm Zone, des Hornhautvolumens und der zentralen Hornhautdicke umgekehrt korreliert zu sein.
Darüber hinaus lässt sich festhalten, dass auch unsere Untersuchung in einem gewissen Maße die Überlegenheit der DMEK gegenüber etablierten Techniken, wie beispielsweise der PK verdeutlicht. Sowohl anhand der refraktiven Stabilität als auch der Visusergebnisse konnten wir belegen, dass das DMEK-Verfahren nach der anfänglichen Lernkurve die wohl besten funktionellen Ergebnisse in der Behandlung von Patienten mit endothelialen Hornhauterkrankungen liefert. Besonders bei bereits pseudophaken Patienten weist die DMEK durch die zu erwartende hohe postoperative refraktive Stabilität viele Vorteile auf
und erscheint insbesondere hinsichtlich der Vorhersagbarkeit des postoperativen refraktiven Ergebnisses der „Triple“- DMEK überlegen.
In der vorliegenden Studie wurden Patienten mit struktureller Epilepsie bedingt durch eine fokale kortikale Dysplasie (FCD) mittels moderner Magnetresonanztomographie (MRT)-Verfahren untersucht.
Bei FCDs handelt es sich um Fehlbildungen der Großhirnrinde, die mit einer hohen epileptogenen Aktivität vergesellschaftet sind. Einige dieser Patienten unterziehen sich einer epilepsiechirurgischen Resektion, sind jedoch hiernach hinsichtlich ihrer Anfallsfrequenz dennoch nicht ausreichend kontrollierbar, weshalb Grund zur Annahme besteht, dass es neben der fokalen kortikalen Dysplasie andere Faktoren geben könnte, die epileptische Anfälle verursachen.
Basierend auf dieser Überlegung wurde mittels T2-Relaxometrie untersucht, ob bei Patienten mit FCDs mikrostrukturelle Veränderungen in Teilen des Kortex vorhanden sind, die mittels konventioneller MRT-Verfahren normal bzw. gesund erscheinen. Es wird angenommen, dass bei diesen Patienten auch außerhalb der FCD mikrostrukturelle Veränderungen, beispielsweise bedingt durch Schädigung im Rahmen von Anfällen oder durch Therapieeffekte, vorzufinden sind.
Für die Studie wurden 16 Patienten mit einer neuroradiologisch gesicherten FCD und 16 hinsichtlich des Alters und des Geschlechts gematchte gesunde Probanden rekrutiert.
Die Daten wurden an einem 3 Tesla (T) MRT-Scanner erhoben. Um die T2-Relaxationszeit zu messen, wurden Spin-Echo Datensätze mit verschiedenen Echozeiten (TE) aufgezeichnet. Zur Erfassung der Ausdehnung der FCD wurden konventionelle fluid-attenuated inversion recovery (FLAIR)-Datensätze akquiriert. Zur Segmentierung des Gewebes wurden synthetische T1-gewichtete magnetization-prepared rapid acquisition of gradient echos (MP-RAGE)-Datensätze aus quantitativen T1-Karten berechnet. Der Kortex und dessen Grenzflächen wurden mittels FreeSurfer anhand der MP-RAGE-Datensätze identifiziert und die kortikale Dicke wurde gemessen. Die FCD-Areale wurden in den FLAIR-Datensätzen manuell markiert und aus den T2-Karten exkludiert, um die FCD-assoziierten Veränderungen nicht in die Analyse einzubeziehen.
Anschließend wurden kortikale T2-Werte ausgelesen und in Oberflächendatensätzen gespeichert, um dann durchschnittliche kortikale T2-Werte für jeden Probanden zu ermitteln und mittels ungepaartem t-Test zwischen den Gruppen zu vergleichen. Zudem wurde der Pearson-Korrelationskoeffizient zwischen den kortikalen T2 Werten und klinischen Parametern berechnet. Außerdem wurde eine oberflächenbasierte Gruppenanalyse kortikaler T2-Werte und der kortikalen Dicke durchgeführt. Hierbei wurden Permutationssimulationen durchgeführt, um kortikale Cluster zu erkennen, die fokale Gruppenunterschiede anzeigen, und um für Mehrfachvergleiche zu korrigieren.
Die Analyse ergab, dass die durchschnittlichen kortikalen T2-Werte außerhalb der FCD in der Patientenkohorte im Vergleich zu den gesunden Probanden signifikant erhöht waren. Diese T2-Veränderungen zeigten weder eine signifikante Korrelation mit der Anzahl der Anfälle der letzten drei Monate, noch mit der Anzahl der jemals eingenommenen antiepileptischen Medikamente. Insbesondere wurden T2-Erhöhungen in den frontalen, parietalen und manchen temporalen Regionen festgestellt. Die oberflächenbasierte Analyse der Kortexdicke zeigte keine signifikanten Gruppenunterschiede.
Mittels T2-Relaxometrie und oberflächenbasierten Analyse-Techniken wurden demnach T2-Veränderungen des mittels konventioneller MRT-Bildgebung unauffällig erscheinenden zerebralen Kortex bei Patienten mit FCD und Epilepsie festgestellt.
Die Ergebnisse deuten auf das Vorhandensein von mikrostrukturellen Veränderungen hin, die sich mit konventionellen MRT-Verfahren nicht erfassen lassen. Potentielle Ursachen dieser Veränderungen sind neben Effekten der antikonvulsiven Medikation möglicherweise auch gliotischer Gewebeumbau bedingt durch stattgehabte epileptische Anfälle. Die Studie legt nahe, dass strukturelle Epilepsien mehr als ein Symptom bedingt durch eine fokale Läsion sind und stattdessen das Gehirn als Ganzes betreffen.
Fallzahlaufkommen und Qualitätsindikatoren bei der Versorgung des abdominellen Bauchaortenaneurysmas
(2021)
Hintergrund: Der MTL30 ist ein Surrogatparameter, der bisher in visceralchirurgischen Registern verwendet wird, um eine Prognose über die Qualität verschiedener komplikationsträchtiger Eingriffe abzugeben. Der Marker wird als positiv gewertet, wenn ein Patient am 30. postoperativen Tag verstorben (mortality) ist, in ein anderes Akutkrankenhaus verlegt (transfer) werden musste oder weiterhin im Krankenhaus verweilen muss (length of stay >30 days).
Zielsetzung: In dieser Arbeit sollte untersucht werden, ob der MTL30 eine Aussage über die Qualität der operativen Versorgung des Bauchaortenaneurysmas (AAA) abgeben kann. Dazu sollten Kliniken mit unterschiedlichem Fallaufkommen hinsichtlich Letalität und MTL30 miteinander verglichen werden. Zusätzlich sollten Literaturempfehlungen zu Mindestmengen des Fallaufkommens überprüft werden.
Methodik: Insgesamt wurden 18.205 elektive Eingriffe aus dem AAA- Register des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin (DGG) analysiert. 14.282 Patienten wurden mittels endovaskulärer Aortenaneurysmaversorgung (EVAR) und 3.923 Patienten mittels offener Versorgung (OAR) behandelt. Die Ergebnisse wurden zum Fallaufkommen der Kliniken in Beziehung gesetzt.
Ergebnisse: Weder für die Letalität noch für den MTL30-Wert konnten Volumen- Ergebnisbeziehungen gefunden werden. Bei EVAR lag die Sterblichkeit im Quintil 1 des Fallaufkommens bei 1,0% und im Quintil 5 bei 1,3%. Auch beim MTL30 ergaben sich keine signifikanten Unterschiede zwischen Quintil 1 und 5, der MTL30 belief sich jeweils auf 5,3%. Bei OAR war die Klinikletalität in dem Quintil mit dem geringsten Fallaufkommen (Quintil 1) mit 5,8% verglichen mit Quintil 5 (höchstes Fallaufkommen, Klinikletalität 3,5%) im Trend höher, aber nicht signifikant unterschiedlich (p= 0,505). Auch bei OAR korrelierte der MTL30 nicht mit dem Fallaufkommen (Quintil 1: 16,4% vs. Quintil 5:12,2%, p=0,110). Jedoch korrelierte die Liegedauer bei EVAR und OAR sowohl mit der Letalität (EVAR: Quintil 1 der Liegezeit 1,69% vs. Quintil 5 1,02%, p= 0,042; OAR: Quintil 1: 6,78% vs. Quintil 5: 2,16%, p= 0,000) als auch mit dem MTL30 (EVAR: Quintil 1 der Liegezeit 7,35% vs. Quintil 5 2,85%, p=0,000; OAR: Quintil 1 26,28% vs. Quintil 5 5,19%, p= 0,000).
Folgerung: Es konnte weder bei EVAR noch bei OAR ein Zusammenhang zwischen dem jährlichen Fallaufkommen und der Letalität bzw. dem MTL30 gefunden werden. Ob der MTL30 gegenüber der alleinigen Erfassung der Klinikletalität als Qualitätsparameter einen Zusatznutzen bietet, muss offenbleiben. Ein vielversprechenderer Marker scheint die stationäre Liegedauer zu sein, die zusätzlich zur Letalität als Qualitätsparameter verwendet werden könnte.
Fallzahlaufkommen und Qualitätsindikatoren bei der Versorgung des abdominellen Bauchaortenaneurysmas
(2020)
Hintergrund: Der MTL30 (Mortalität, Transfer, Liegezeit) wurde als Surrogatparameter zur Evaluation der Qualität potenziell komplikationsträchtiger viszeralchirurgischer Eingriffe vorgeschlagen.
Zielsetzung: Es wurde überprüft, inwieweit sich der MTL30 zu den Ergebnissen des Bauchaortenaneurysma(AAA)-Registers des Deutschen Instituts für Gefäßmedizinische Gesundheitsforschung (DIGG) der Deutschen Gesellschaft für Gefäßchirurgie und Gefäßmedizin (DGG) und zum Fallaufkommen der Kliniken korrelieren lässt.
Material und Methoden: Insgesamt 14.282 Patienten wurden endovaskulär (EVAR) und 3923 Patienten offen (OAR) elektiv wegen eines AAA versorgt. Bestimmt wurden Fallaufkommen der behandelnden Kliniken, Klinikletalität, Liegezeit und Verlegung in ein anderes Akutkrankenhaus 30 Tage nach dem Indexeingriff.
Ergebnisse: Die Klinikletalität machte bei EVAR 1,3 %, bei OAR 4,9 % aus (p = 0,000), der MTL30 5,0 % vs. 14,4 % (p = 0,000). Für EVAR ließ sich keine Beziehung zwischen Fallaufkommen und Klinikletalität (Quintile 1: 1,0 %; Quintile 5: 1,3 %) sowie Fallaufkommen und MTL30 (Quintile 1: 5,3 %; Quintile 5: 5,3 %) nachweisen. Auch bei OAR bestand keine signifikante Beziehung zwischen Fallaufkommen und Klinikletalität (Quintile 1: 5,8 %, Quintile 5: 3,5 %; p = 0,505) und Fallaufkommen und MTL30 (Quintile 1: 16,4 %, Quintile 5: 12,2 %, p = 0,110). Bei einer Klinikletalität von 7,2 (5–10) % betrug der MTL30 bei OAR 17,6 %. Sowohl bei EVAR als auch bei OAR korrelierte die stationäre Aufenthaltsdauer signifikant mit Klinikletalität und MTL30.
Diskussion: Eine eindeutige Beziehung zwischen Krankenhausfallaufkommen und Klinikletalität ließ sich im AAA-Register des DIGG nicht aufzeigen. Das gleiche galt für den MTL30. Ob demnach der MTL30 gegenüber der Erfassung von Klinikletalität und stationärer Liegezeit als Qualitätsparameter einen Zusatznutzen bietet, muss offenbleiben.
Eine empirische Arbeit, auf Basis der teilnehmenden Beobachtung nach Malinowski, bei Dealern im bürgerlichen Milieu. Der Fokus liegt auf einer ethnologischen Herangehensweise; d.h., dass am Leben der Dealer weitestgehend und möglichst vorurteilsfrei teilgenommen wird. Hieraus ergeben sich Einblicke, die mit anderen Forschungsmethoden nicht möglich sind.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In dieser klinischen, randomisierten, doppelverblindeten Vergleichsstudie untersuchten wir, welchen Einfluss auf die Passgenauigkeit von Einzelzahnkronen und dreigliedrigen Brücken aus Vollkeramik zum einen die Anwendung einer intraoralen Digitalisierung mithilfe eines Intraoralscanners (Lava C.O.S Scanner, 3M ESPE, D-Seefeld) und zum anderen der Einsatz einer extraoralen Digitalisierung auf Basis einer konventionellen Abformung (Impregum penta soft, 3M ESPE, D-Seefeld) hat. Als weiteres Prüfkriterium wurde die Effizienz der jeweiligen Abformmethoden untersucht. Die Fragestellung sollte eine Aussage dazu treffen können, ob die digitale Abformung im klinischen Alltag des Zahnarztes einen Vorteil gegenüber der konventionellen Abformung erbringen kann.
In der Studie wurden 25 Patienten eingeschlossen und beide Abformmethoden nach der Zahnpräparation in einer randomisierten Abfolge angewandt. Beim Intraoralscanner waren ein Ganzkieferscan für die Brückenrestaurationen und ein Quadrantenscan für Einzelzahnkronen erforderlich. Die klinischen Arbeitsschritte wurden zeitlich erfasst. Die Kronen- und Brückengerüste aus Zirkoniumdioxidkeramik basierten auf den unterschiedlichen Abformmethoden. Die Gerüste wurden vor der Anprobe verblindet und mit Hilfe von Silikonreplikas die Passgenauigkeit am marginalen Randspalt, an der axialen Wand, am axio-okklusalen Übergang, sowie am okklusalen Messpunkt unter 66x Vergrößerung ermittelt.
Der marginale Randspalt der Restaurationen auf der Basis der konventionellen Abformung betrug 68,64 μm (Medianwert), respektive 60,31 μm bei der digitalen Abformung und unterschied sich statistisch signifikant. Die Passung an der axialen Wand ergab bei der digitalen Abformung 88,27 μm, bei konventioneller 92,13 μm, am axio-okklusalen Übergang 144,78 μm vs. 155,60 μm, am okklusalen Messpunkt 155,57 μm vs. 171,51 μm. Letzter wies einen statistisch signifikanten Unterschied auf (Mann-Whitney U Test, p = 0,05). Die Zeitmessung zeigte eine Ersparnis von 5 min 6 sec beim Quadrantenscan und 1 min 34 sec beim Ganzkieferscan zu Gunsten der digitalen Abformung.
Die Studienergebnisse weisen eine effizientere klinische Arbeitsweise der digitalen gegenüber der konventionellen Abformung nach, die mit einer identischen Passungsqualität einhergeht.
Diese Dissertation befasst sich mit Validierungsstrategien von Tests zur Erfassung studentischer Kompetenzen. Kompetenzen von Studierenden werden zu verschiedenen Zwecken erhoben. Dies beginnt beim Eintritt in das Studium durch Zulassungstests und wird im Studium fortgesetzt z.B. durch Tests zur Zertifizierung von Kompetenz (Benotung von Leistung) oder zur Zuteilung auf bestimmte Kurse (Einteilung in Sprachniveaus). Neben diesen internen Tests zur Erfassung studentischer Kompetenzen werden auch externe Tests genutzt um etwa die Lehre zu verbessern (Evaluation von Veranstaltungen). Die mit dem Einsatz von Tests verbundenen Konsequenzen können sowohl für Studierende als auch Lehrpersonen und Entscheidungsträger*innen schwerwiegend sein. Daher sollten Tests wissenschaftlichen Gütekriterien genügen.
Das wichtigste Kriterium für die Beurteilung von wissenschaftlichen Tests ist Validität. In dieser Dissertation wird ein argumentationsbasiertes Validierungsansatz verfolgt. In diesem wird nicht die Validität eines Tests untersucht, sondern die Plausibilität der Interpretation beurteilt, die mit den Testwerten verbunden ist. Bislang fehlt jedoch für viele der wissenschaftlichen Tests für den deutschen Hochschulbereich ein auf die Testwertinterpretation abgestimmtes Validitätskonzept.
In dieser Arbeit wird ein Validierungsschema vorgestellt, in das übliche Testnutzen der Erfassung studentischer Kompetenzen an deutschen Hochschulen eingeordnet werden können. Die Einordnung von Testnutzen in das Schema erlaubt die Ableitung von passenden Validitätsevidenzen. Im Fokus stehen das Verhältnis von Test zu 1) Konstrukt, 2) Lehre und 3) beruflichen Anforderungen.
Das Validierungsschema wird angewandt, um Testwertinterpretationen eines empirischen Forschungsprojektes zur Erfassung von Kompetenz in Nachhaltigkeitsmanagement bei Studierenden zu validieren. Der Schwerpunkt dieser Arbeit liegt auf der Validierung der Interpretation, dass die Testwerte von drei nachhaltigkeitsbezogenen Tests Indikatoren für hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement sind. Die Analysen zur Gewinnung von Validitätsevidenzen konzentrieren sich auf die Grundannahme, dass Lernfortschritte in den nachhaltigkeitsbezogenen Tests vorwiegend hochschulisch vermittelt werden. Dafür wurde ein Messwiederholungsdesign mit zwei Gruppen von Studierenden realisiert. Studierende in der Schwerpunktgruppe besuchten ein Semester lang eine reguläre Lehrveranstaltungen mit Bezug zu Nachhaltigkeitsthemen und Nachhaltigkeitsmanagement, Studierende der Kontrollgruppe besuchten keine solchen Lehrveranstaltung. Die Einteilung in Schwerpunkgruppe und Kontrollgruppe erfolgte über Analyse von Modulhandbüchern und verwendeten Lehrmaterialien. Die Ergebnisse zeigen, dass Studierende aus der Schwerpunktgruppe in zwei der drei Tests höhere Lernfortschritte zeigen als Studierende der Kontrollgruppe. Selbstberichte der Studierenden zu hochschulischen und außerhochschulischen Lerngelegenheiten lassen darauf schließen, dass Studierende der Schwerpunkgruppe auch außerhochschulisch ein höheres Interesse an Nachhaltigkeitsthemen zeigen, dies schlägt sich jedoch nicht in höherem Vorwissen in den verwendeten Tests nieder. Insgesamt wird daher für die zwei Tests mit höheren Lernfortschritten in der Schwerpunktgruppe die Interpretation als plausibel bewertet, dass die Testwerte hochschulisch vermittelte Kompetenz in Nachhaltigkeitsmanagement abbilden.
Kaum jemand hat sich in den 1950er und 1960er Jahre ähnlich intensiv für die strafrechtliche, aber auch die zivilgesellschaftliche Aufarbeitung der nationalsozialistischen Gewaltverbrechen eingesetzt wie Fritz Bauer. Dessen 50. Todestag am 1. Juli 2018 nahm das Fritz Bauer Institut zum Anlass, seinem Namensgeber zwei große Veranstaltungen zu widmen.
Über problematische Straßennamen und Denkmäler wird politisch debattiert. Wie der öffentliche Raum aussieht, wird gemeinhin nicht als juristische Frage behandelt. Trotzdem taucht die Frage, was die Gesellschaft im öffentlichen Raum sehen will, auch als rechtliches Argument auf. Wann erkennt der Diskurs solche Fragen politischer Ästhetik als juristisches Argument an? Und welche Bedingungen entscheiden darüber?
Freund oder Feind?
(2019)
Bemühen wir uns um einen nüchternen Blick auf die "Fakten". Ein Hochschulprofessor betritt von Protesten begleitet einen Hörsaal, um seine Vorlesung zu halten. Aufgrund lauter Beschimpfungen und Störungen kann er diese Vorlesung nicht halten und verlässt den Campus schließlich zwei Stunden später unter Polizeischutz. Es handelt sich nicht um irgendeinen Professor, sondern um den Mann, der eine Partei gründete, vordergründig, um den Austritt Deutschlands aus der Eurozone zu erreichen und der auf der Pegida-Welle reitend eine rechtspopulistische Partei hervorbrachte, die ihre Umfragewerte von Unzufriedenheit und Enttäuschung nährt. Seit 2015 gehört er dieser Partei nicht mehr an. Samthandschuhe hat Bernd Lucke deswegen noch lange nicht verdient. Wie weit sollte aber der grundsätzlich berechtigte Protest gegen Lucke gehen?
Hintergrund: Die Endometriose und die Infertilität sind beide Erkrankungsbilder, die häufig miteinander assoziiert sind. So werden Literaturen zur Folge bei mindestens 30% der Endometriose Patientinnen eine Sterilität diagnostiziert, während wiederum bei etwa 25 - 50% der Patientinnen eine Endometriose als Hauptursache des unerfüllten Kinderwunsches erkannt wird. Die Laparoskopie dient bei Patientinnen mit Endometriose als wichtiger invasiver Eingriff, der entweder zu diagnostischen Zwecken im Sinne einer Ursachenabklärung dient und / oder zu therapeutischen Zwecken bei bereits bestätigter Endometriose assoziierter Infertilität durchgeführt wird.
Problemstellung und Zielsetzung: Anhand des laparoskopischen Befundes, z.B. durch das Erfassen des rASRM Scores bei Endometriose, kann Patientinnen im Voraus keine zuverlässige Aussage über die Chance auf eine postoperative Schwangerschaft geäußert werden. Das Ziel der hier vorliegenden Arbeit ist es, den Erfolg der laparoskopischen Behandlung bei Endometriose assoziierter Infertilität unter Einbezug von Patientencharakteristika, des intraoperativen Befundes, operativer Verfahren sowie der postoperativen Fertilitätsbehandlung zu beurteilen. Auf diese Weise soll den Frauen geholfen werden, im Voraus bzw. nach laparoskopischer Behandlung der Endometriose die Chance auf eine postoperative Schwangerschaft besser abzuschätzen. Es sollen somit Faktoren ermittelt werden, die die postoperative Fertilität protektiv oder ungünstig beeinflussen.
Material und Methoden: In die Studie aufgenommen wurden alle Patientinnen (n=102), die im Zeitraum von 2007 bis 2017 an der Universitätsklinik Frankfurt am Main einen laparoskopischen Eingriff mit der Diagnose einer Endometriose erhalten haben und einen unerfüllten Kinderwunsch von mehr gleich einem Jahr äußerten. Die Datenerhebung erfolgte über die elektronische Patientenakte sowie die telefonische Befragung der Studienteilnehmerinnen zur Patientencharakteristika und der postoperativen Fertilitätsbehandlung. Die statistische Auswertung wurde durch die Nutzung des Log Rank Tests / der Kaplan Meier Methode sowie uni- und multivariater Analysen mittels
Cox Regression durchgeführt.
Ergebnisse: Von den 102 Patientinnen konnten nach einer mittleren postoperativen Nachbeobachtungszeit von 70 Monaten 71 Patientinnen (69,6%) eine Schwangerschaft verwirklichen. Dabei wurden 21,6% der Frauen durch die alleinige Laparoskopie schwanger, während bei 48% der Frauen die Schwangerschaft durch die zusätzliche Nutzung reproduktionsmedizinischer Verfahren erreicht wurde. Die meisten Schwangerschaften ereigneten sich in den ersten 6 bis 12 Monaten nach der Operation. Die mittlere Dauer bis zur Schwangerschaft betrug 10 Monate. Der Log Rank Test zeigte keine statistisch signifikanten Unterschiede in den verschiedenen rASRM Stadien bei der Betrachtung der kumulativen Schwangerschaftsrate (rASRM 1: 83,3%; rASRM 2: 66,7%; rASRM 3: 93,8%; rASRM 4: 37,9%). Die uni- und multivariaten Analysen zeigten, dass die Dauer der Infertilität (Hazard Ratio: 0,85), das Vorkommen von intestinaler Endometriose (Hazard Ratio: 0,26) und ausgeprägten Adhäsionen (Hazard Ratio: 0,45), die Anzahl der Endometriose Lokalisationen (Hazard Ratio:0,82), die Anzahl der laparoskopischen Eingriffe für Endometriose (Hazard Ratio: 0,66) sowie der Voroperationen (Hazard Ratio: 0,75) und das Vorkommen von Endometriose Rezidiven (Hazard Ratio: 0,4) die Chance auf eine Konzeption signifikant ungünstig beeinträchtigen (p< 0,05). Ein protektiver Einfluss auf die Schwangerschaft zeigte sich nur für die Koagulation am Ovar (p= 0,02; Hazard Ratio: 7,74).
Schlussfolgerung: Die laparoskopische Behandlung scheint die Erfüllung des Kinderwunsches positiv zu beeinflussen, zumal fast ¾ der Patientinnen postoperativ schwanger wurden. Höhere Schwangerschaftsraten wurden durch die zusätzliche Nutzung der assistierten Reproduktionstherapie (ART) erreicht. Aus diesem Grund sollten Frauen für eine zusätzliche postoperative ART motiviert werden. Die Patientinnen sollten darauf aufmerksam gemacht werden, dass sie sich bei einem unerfüllten Kinderwunsch früher bei ihrem Arzt vorstellen sollten. Denn je länger die Zeit bis zur Operation einer Endometriose assoziierten Infertilität beträgt, desto schlechter ist die Chance auf eine postoperative Schwangerschaft (p= 0,02). Endometriosezysten am Ovar sowie deren Entfernung schränken die klinische Fertilität nicht signifikant ein. Die Anzahl der laparoskopischen Eingriffe sowie der abdominellen Voroperationen scheinen ein wichtigerer, ungünstiger Faktor in Hinblick auf die Schwangerschaft zu sein (p = 0,04). Außerdem könnte die Koagulation am Ovar eine wichtige Behandlungsmethode bei Endometriose assoziierter Infertilität sein. Diese Operationsmethode sollte durch weitere Studien und eine größere Stichprobe untersucht werden...
Das Ziel dieser Forschungsarbeit war es, herauszufinden, welche Kriterien der Barrierefreiheit für digitale Bildungsmedien relevant sind und diese Kriterien in einer Matrix abzubilden. Zur Erreichung dieses Ziels wurden qualitative Interviews mit Lehrkräften und Expert*innen der digitalen Barrierefreiheit durchgeführt.
Die qualitativen Interviews haben gezeigt, dass eine individuelle Klassifizierung der Barrierefreiheits-Kriterien für digitale Bildungsmedien notwendig ist.
Bereits vorhandenen Konzepten fehlt es vor allem an Praxisnähe und konkreten Anweisungen. Zudem wurde deutlich, dass der Barrierefreiheit und Inklusion nach wie vor zu wenig Aufmerksamkeit in Deutschland zukommen.
In der Arbeit wird ein Testverfahren zum Prüfen der Varianzhomogenität der Lebenszeiten eines Erneuerungsprozesses entwickelt. Das Verfahren basiert auf der "Filtered-Derivative"-Methode. Zur Herleitung des Annahmebereichs werden zunächst Bootstrap-Permutationen genutzt, bevor zu einer asymptotischen Methode übergangen wird. Ein entsprechender funktionaler Grenzwertsatz wird skizziert. Aufbauend auf dem Test wird ein Multiple-Filter-Algorithmus zur genauen Detektion der Varianz-Change-Points besprochen. Schließlich folgt die Inklusion von vorher detektierten Ratenänderungen in das Verfahren. Der Test und der Algorithmus werden in Simulationsstudien evaluiert. Abschließend erfolgt eine Anwendung auf EEG-Daten.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Sowohl die Lebenserwartung als auch die Prävalenz HIV-infizierter Patient*innen ist stetig ansteigend,aufgrund der HAART und durch verbesserte diagnostische Methoden. Nicht-AIDS-definierenden Erkrankungen sind heutzutage die führenden Todesursachen. Durch verzögerte Diagnosestellung und zurückhaltenden Therapien gynäkologischer Malignome ist die Prognose im Vergleich zur Normalbevölkerung schlechter.
In dieser retrospektiven Fall-Kontroll-Studie des Universitätsklinikums Frankfurt am Mains wurden die Therapie und das Outcome gynäkologischer Malignome von 23 HIV-infizierten Patientinnen aus den Jahren 2009-2019 mit einer Kontrollgruppe aus dem gynäkologischen Krebszentrum der Klinik Essen Mitte verglichen, um herauszufinden, inwiefern eine HIV-Infektion das Outcome der Patientinnen beeinflusst.
Das gynäkologische Malignom, dominierend das Zervixkarzinom, trat durchschnittlich ein Jahrzehnt nach der HIV-Diagnose auf. Im Unterschied zu anderen Studien, ist unser Kollektiv überwiegend hellhäutig. Ein bekannter Drogenabusus ist häufig und zusammenhängend mit weiteren Koinfektionen.
Die HIV-Erkrankung ist bei mehr als der Hälfte der Patientinnen bereits fortgeschritten, jedoch ließ sich kein Zusammenhang zwischen dem Auftreten gynäkologischer Malignome und einer CD4-Zellzahl <500 CD4-Zellen/µl nachweisen. Die antiretrovirale Therapie entsprach größtenteils nicht den aktuellen Leitlinien.
Bis auf fünf Frauen wurden alle Frauen leitliniengerecht therapiert. Eine Korrelation zwischen der Therapie und der Tumorentität, der CD4-Zellzahl, dem Alter oder dem Stadium des Malignoms konnte nicht gezeigt werden.
Insgesamt liegt die 5-Jahresüberlebensrate der Kohorte bei 74.8%. Eine nicht leitliniengerechte Therapie ist nicht direkt mit einem schlechteren Outcome verbunden, jedoch mit einem weitaus kürzeren Follow-Up-Zeitraum von durchschnittlich 0.22 Jahren im Vergleich zu 4.85 Jahren bei leitlinienkonform therapierten Patientinnen. Es liegt ein statistisch signifikanter Unterschied zwischen der Kontrollgruppe und unserer Kohorte vor, sodass angenommen werden kann, dass bei Vorliegen einer HIV-Infektion die Therapie des gynäkologischen Malignoms häufiger nicht leitliniengerecht ist.
Bislang existieren nur wenige Studien, die die Therapie und das Outcome gynäkologischer Malignome bei HIV-infizierten Patientinnen untersuchen. Die Interaktion einer ART mit antineoplastischen Medikamenten und die Anwendung von Checkpointinhibitoren und einer „targeted therapy“ sollten Gegenstand weiterer Untersuchungen sein. Dafür sollten HIV-Patientinnen in Therapiestudien inkludiert werden, sodass geeignete Leitlinien erarbeitet werden können.
Drei wissenschaftshistorische Analysen haben sich in je unterschiedlicher Methodik den Feldern der Kriminologie und der Kriminalistik genähert. Silviana Galassi, Richard F. Wetzell und Peter Becker bieten den überzeugenden Beleg dafür, dass die Analyse der Kriminalität und ihrer gesellschaftlichen Verarbeitung weder den Kriminologen noch den Strafrechtlern allein überlassen werden darf. Die historischen Forschungsarbeiten zwingen die traditionelle Kriminologie und die normative Strafrechtswissenschaft zur Kenntnisnahme, dass die Wissenschaftsrichtung "Kriminologie" (Entstehungsbedingungen und Verarbeitung von Kriminalität) und schon gar die "Kriminalistik" (polizeiliche Tatnachweistechnologien) seit jeher im Ordnungsdienst des Staates stehen und – jedenfalls in den zugrunde gelegten Untersuchungszeiträumen – nicht den Anspruch selbst bestimmter Wissenschaft erfüllen. ...
Gemeinsam ist den Autoimmunendokrinopathien, dass genetische Faktoren als auch Umweltfaktoren für die Ätiologie von Bedeutung sind. Das Vererbungsschema dieser genetischen Prädispositionsfaktoren ist komplex und schließt mehrere Kandidatengene ein. Besonders die HLA-Gene wurden eingehend in den letzten Jahren untersucht. Sie stellen einen wichtigen Risikofaktor für die Entstehung von Autoimmunendokrinopathien dar. Allerdings ist für keinen der bekannten Autoimmunendokrionopathien die genetische Prädisposition, die durch die HLA-Region vermittelt wird, weder ausreichend noch notwendig für die Entwicklung der Erkrankung. So nehmen weitere Kandidatengene eine bedeutende Rolle in der Entstehung von Autoimmunendokrinopathien ein. In den letzten Jahren haben Studien gezeigt, dass diejenigen Mechanismen des Immunsystems, die zur Erhaltung der peripheren T-Zell-Toleranz beitragen, essentiell für die Kontrolle von autoreaktiven T-Zellen sind. Die Elimination bzw. die Störung solcher Mechanismen kann somit in einer Autoimmunerkrankung münden. Folglich sind Gene, die Einfluss auf diese Mechanismen der peripheren Toleranz ausüben, eindeutige Prädispositionsfaktoren für die Entstehung von Autoimmunerkrankungen. CTLA-4 ist ein essentielles inhibitorisches Regulatormolekül für T-Zellen. In vivo- und In vitro- Untersuchungen haben gezeigt, dass CTLA-4 eine bedeutende Rolle in der Regulation von Selbsttoleranz einnimmt. Damit ist CTLA-4 ein entscheidendes Suspezeptibilitätsgen für Autoimmunität im Allgemeinen und könnte insbesondere für die T-Zell-vermittelten Autoimmunendokrinopathien bedeutend sein. Im Rahmen dieser Arbeit wurde nach einem Zusammenhang dieses Genortes mit Typ 1 Diabetes mellitus, Morbus Addison, Hashimoto-Thyreoiditis und Morbus Basedow in der kaukasischen Bevölkerung geforscht. Bei der Suche nach einer Assoziation zwischen CTLA-4 Polymorphismen und Typ 1 Diabetes mellitus zeigt sich eine signifikante Assoziation des -MH30 C/G - und -1661 A/G - Polymorphismus sowie des +49 A/G Exon 1- Polymorphismus des CTLA-4 Gens mit Typ 1 Diabetes mellitus. Beim Polymorphismus –MH30 C/G des CTLA-4 Gen zeigt sich ein signifikant gehäuftes Auftreten des Allels „G“ bei Patienten, die an Typ 1 Diabetes mellitus erkrankt sind. Dabei vermittelt das Allel „G“ bei der Allelfrequenzanalyse - wie auch bei der Genotypenanalyse ein signifikant erhöhtes Diabetes-Risiko. Das Allel „C“ hingegen ist signifikant seltener an Patienten und scheint somit eher protektiv gegen Typ 1 Diabetes mellitus zu wirken. Bei der Untersuchung des -1661 A/G Polymorphismus des CTLA-4 Gens bei Patienten mit Typ 1 Diabetes mellitus zeigt sich das Allel „A“ als krankheitsprädisponierend. Beim +49 A/G Polymorphismus führt die Substitution von Adenin zu Guanin an Position 49 des Exon 1 zu eine Threonin (Thr) /Alanin (Ala) Substitution am Kodon 17 der Signalpeptidsequenz. Die Untersuchung des +49 A/G Polymorphismus in der deutschen Population verdeutlicht, dass der Genotyp „G/G“ sowie das Allel „G“ (Alanin) krankheitsprädisponierend sind. Das Allel „A“ hat eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der – 319 – Promotorpolymorphismus zeigt keine Assoziation mit Typ 1 Diabetes mellitus. Die Haplotypanalyse -MH30/-1661 zeigt, dass der Haplotyp „CG“ bei Typ 1 Diabetes mellitus signifikant häufiger auftritt als in der Kontrollgruppe. Der Haplotyp –MH30G/- 1661G hat eine protektive Wirkung. Weiterhin vermittelt der Haplotyp -318/+49G ein erhöhtes Diabetes-Risiko, während der Haplotyp „C/A“ protektiv wirkt. Des Weiteren wurde die Assoziation der oben genannten vier Polymorphismen im CTLA-4 Gen mit der Autoimmunerkrankung Morbus Addison, untersucht. Beim - 1661A/G-Polymorphismus zeigt sich eine signifikant erhöhte Frequenz des Genotyp „A/A“ bei Patienten mit Morbus Addison. Der Genotyp „G/G“ sowie das Allel „G“ des Exon 1- Polymorphismus sind häufiger bei Patienten mit Morbus Addison als bei den Kontrollen und vermitteln somit ein erhöhtes Risiko an Morbus Addison zu erkranken. Im Gegensatz hierzu hat das Allel „A“ eine protektive Wirkung und tritt gehäuft in der Kontrollgruppe auf. Der –MH30 – Polymorphismus und der Promotorpolymorphismus des CTLA-4 Gen zeigen keine relevanten Assoziationen mit Morbus Addison in der deutschen Population. Die Haplotypanalyse der -319 und +49 Polymorphismen zeigt, dass der Haplotyp „C/A“ eine protektive Wirkung hat und daher das Risiko an Morbus Addison zu erkranken, senkt. Der Haplotyp – 319C/+49G birgt dagegen ein erhöhtes Erkrankungsrisiko. Bei Hashimoto-Thyreoiditis zeigte sich, dass der –MH30 C/G-Polymorphismus mit der Erkrankung assoziiert ist. Im Gegensatz zu den Ergebnissen bei Typ 1 Diabetes mellitus zeigt sich das Allel „C“ als krankheitsprädisponierend. Der Genotyp „C/C“ ist signifikant häufiger im Patientenkollektiv als in der Kontrollgruppe. Das Allel „G“ am Genort CTLA-4 –MH30 wirkt dagegen protekiv. Beim -1661 A/G – Polymorphismus treten beide homozygote Genotypen „A/A“ und „G/G“ im Patientenkollektiv häufiger auf als in der Kontrollgruppe. Der heterozygote Genotyp hingegen „A/G“ ist signifikant seltener in der Patientengruppe zu finden als in der Kontrollgruppe und hat somit eine protektive Wirkung. Die Untersuchung des -319 C/T – und des +49 A/G –Polymorphismus zeigt keine Assoziation mit Hashimoto – Thyreoiditis. Die Haplotypanalyse - MH30 / CTLA-4 – 1661 zeigt, dass die Haplotypen „CG“ und „GG“ eine krankheitsprädisponierende Wirkung haben und gehäuft im Patientenkollektiv auftreten als in der Kontrollgruppe. Der Haplotyp -319/ +49 weist bei Patienten mit Hashimoto- Thyreoiditis keine Assoziation auf. Analog zu den anderen oben aufgeführten Autoimmunendokrinopathien wurden auch vier CTLA-4 Polymorphismen auf ihre Korrelation mit Morbus Basedow hin untersucht. Es konnte hier gezeigt werden, dass die untersuchten Polymorphismen keinen wesentlichen Beitrag zur Vermittelung des genetischen Risikos für Morbus Basedow leisten. Die Korrelationsuntersuchung der Polymorphismen zeigte auch keine Assoziation der Haplotypen mit Morbus Basedow. Dies schließt jedoch das CTLA-4 Gen als ein Suspezeptibilitätsgen für Morbus Basedow nicht aus, zumal Assoziationen mit weiteren in dieser Arbeit nicht untersuchten CTLA-4 Polymorphismen bestehen können. Zusammengefasst wird durch die Untersuchung dieser Doktorarbeit die These unterstützt, dass das CTLA-4 Gen eine wichtige Rolle in der Entstehung der Autoimmunendokrinopathien einnimmt. Die hier untersuchten Polymorphismen des CTLA-4 Gens sind prädisponierende Faktoren für Autoimmunendokrinopathien, insbesondere für Typ 1 Diabetes mellitus, Morbus Addison und Hashimoto-Thyreoiditis.
In dieser Arbeit sollte der Einfluss von Trockenstress auf die Photosyntheserate von einer repräsentativen C3-Art und dreier repräsentativer Arten unterschiedlicher C4-Subtypen vergleichend untersucht werden, wobei die drei Subtypen der C4-Photosynthese im Vordergrund standen. Anhand der ausgewählten Arten der Modell-Gattung Panicum (s.l.), P. bisulcatum (C3), P. bulbosum (NADP-ME), P. miliaceum (NAD-ME) und P. maximum (PCK), konnten die unterschiedlichen Stoffwechseltypen, an phylogenetisch nah verwandten Arten, auf Unterschiede in der physiologischen Antwort auf den abiotischen Stressfaktor Trockenheit untersucht werden. Hierfür wurden zwei verschiedene Arten der Trockenstressinduktion durchgeführt. Ein Vergleich der Arten in Hinblick auf Unterschiede in der Trockentoleranz erfolgte anhand von Hydrokulturversuchen mit PEG6000 als Osmotikum. In diesem Fall wurde der jeweilige Stress sehr schnell induziert und über die Dauer von 6 Tagen in unterschiedlichen Intensitäten konstant gehalten. Anhand der durchgeführten Gaswechselmessungen und Bestimmungen der Chlorophyllfluoreszenzparameter konnte eindeutig die C3-Art P. bisulcatum als die am sensitivsten auf Trockenstress reagierende Art identifiziert werden. Die drei C4-Arten lagen in ihrer physiologischen Antwort auf die unterschiedlichen Trockenstressintensitäten verhältnismäßig nah zusammen. Bei schwächerem osmotischen Stress zeigte aber P. miliaceum, der Vertreter des NAD-ME Subtyps, eindeutig die geringste Beeinflussung der untersuchten Photosyntheseparameter, was im Wesentlichen auch bei stärkerem osmotischen Stress bestätigt wurde. Zudem zeigte P. miliaceum bei 1400 ppm CO2 im Messgas im Vergleich zu den anderen getesteten Arten eine signifikant höhere Wassernutzungseffizienz, was die bessere Anpassung des NAD-ME Subtypen an osmotischen Stress unterstreicht. Bei dem Trockenstressexperiment in Erde stand die physiologische Maximalantwort auf den natürlicheren, verhältnismäßig langsam induzierten, aber letztendlich starken Trockenstress im Vordergrund. Hier wurde für jede Art untersucht, welche limitierenden Faktoren unter Trockenstress auf die Photosyntheserate wirken. Dafür wurde neben Gaswechsel- und Chlorophyllfluoreszenzmessungen mit der Bestimmung der In-vitro-Aktivitäten der Enzyme des C4-Zyklus, der Bestimmung der PEPC und RubisCO-Gehalte anhand von SDS-PAGE und Western-Blot-Analysen, und der Bestimmung des Deepoxidationsgrades des Xanthophyllzykluses ausgewählte Teilreaktionen der C4-Photosynthese genauer untersucht. Bei allen untersuchten C4- Arten konnte bei dem starken Trockenstress eine eindeutige nicht-stomatäre Limitierung der Photosyntheserate festgestellt werden. Bei der C3-Art P. bisulcatum sprechen die Ergebnisse für eine Mischung aus stomatären und nicht-stomatären Faktoren, die die Photosynthese unter Trockenstress limitieren. Hier konnte eine Abnahme des RubisCO-Gehalts unter Trockenstress beobachtet werden, was ein möglicher Faktor für eine nicht-stomatäre Limitierung der Photosyntheserate unter Trockenstress sein kann. Aufgrund der im Mittel reduzierten In-vitro-Aktivitäten der Enzyme des NADP-ME C4-Zyklus (PPDK, PEPC, NADP-MDH und NADP-ME) und einer Abnahme des PEPC- und RubisCOGehalts bei trockengestressten P. bulbosum im Vergleich zu der entsprechenden Kontrolle, konnte bei dem Vertreter des NADP-ME Subtyps die nicht-stomatäre Limitierung der Photosyntheserate auf eine generelle Abnahme der an der C4-Photosynthese beteiligten Enzyme zurückgeführt werden. Anhand der Bestimmung der In-vitro-Aktivitäten von P. maximum konnte gezeigt werden, dass die als Nebenweg beschriebene Decarboxylierung des CO2 über das NAD-ME in den BSZ, wahrscheinlich im gleichen Maße abläuft wie der von KANAI und EDWARDS (1999) beschriebene Hauptweg (Decarboxylierung in den BSZ durch die PCK). Die beobachtete nicht-stomatäre Limitierung der Photosyntheserate unter Trockenstress wurde auf eine mögliche Abnahme der In-vitro-Aktivitäten des sogenannten Nebenweges zurückgeführt. Bei P. miliaceum, dem repräsentativen Vertreter des NAD-ME Subtyps, zeigte keines der C4-Enzyme eine Abnahme der In-vitro-Aktivität, noch konnte eine Abnahme des RubisCO Gehalts unter Trockenstress im Vergleich zur Kontrolle beobachtet werden. Diese Beobachtung deutete auf eine In-Situ-Inhibierung eines der C4-Enzyme hin. Aus diesem Grund wurden in dieser Arbeit bei P. miliaceum weiterführende Untersuchungen zur posttranslationalen Regulation der PEPC durchgeführt. Obwohl die PEPC unter Trockenstress in phosphorylierter und somit aktiver Form vorliegt, konnte gezeigt werden, dass bei trockengestressten P. miliaceum eine In-Situ-Inhibition der PEPC aufgrund einer Feedback-Inhibition durch das unter Trockenstress in den MZ akkumulierende Transportmetabolit Aspartat wahrscheinlich ist und somit die Photosyntheserate limitieren kann.
Inklusion ist (k)eine Frage der Persönlichkeit - Inklusive Kompetenzen institutionell verankern!
(2020)
Orientiert am Themenschwerpunkt der „theoretischen und empirischen Klärung des Verständnisses pädagogischer Fachlichkeit“ beschäftigt sich unser Beitrag mit den Barrieren und Chancen, die sich in der Hochschulstruktur und –kultur und der universitären Lehre darstellen, wobei wir uns exemplarisch der Ausbildung inklusionsbezogener pädagogischer Fachlichkeit bei angehenden Lehrkräften zuwenden. Mit Bezug zu aktuellen Entwicklungen der bildungspolitischen Landschaft in Deutschland wird zunächst die Notwendigkeit eines Umdenkens in der Lehramtsausbildung, wie auch in der gesamten Hochschullandschaft, dargelegt und diskutiert. Dabei wird das dem Beitrag zugrunde liegende Verständnis von Inklusion verdeutlicht. Die sich daraus ergebenden Anforderungen an Hochschulen, besonders in Bezug auf ihr Selbstverständnis, das Verständnis von Wissenschaftlichkeit und die gelebte Hochschulkultur, werden daraufhin formuliert. Daran schließen Überlegungen zur Umsetzung inklusionsorientierter Praxen in der Lehrer*innenbildung an. Ein besonderer Fokus liegt dabei auf der partizipativen Lehre als möglichem Werkzeug für eine inklusionssensible Hochschulentwicklung. Am Beispiel partizipativer Lehre gemeinsam mit Menschen mit Lernschwierigkeiten1 werden Möglichkeiten aufgezeigt, wie Menschen, die bisher keinen Zugang zur akademischen Wissensvermittlung hatten, als Lehrende tätig sein und so sowohl von Biografien unter der Erfahrung von Diskriminierung berichten, als auch diese Erfahrungen in die Produktion von Wissen einfließen lassen können. In der Diskussion um partizipative Lehre werden verschiedene Widersprüche und Diskurse deutlich, die geeignet sind, um über Hochschulkulturen und -praxen neu nachzudenken.
Im Rahmen des Maßnahmenpakets zur Förderung fahrradfreundlicher Infrastruktur wurde der Frankfurter Grüneburgweg zur Fahrradstraße umgebaut. Mit Fokus auf Gewerbetreibende wurde zwischen März und April 2023 eine Studie zu den Auswirkungen der Fahrradstraße auf dem Grüneburgweg im Frankfurter Westend durchgeführt. Insgesamt wurden 12 Interviews mit ortsansässigen Einzelhandel- und Gastronomiebetreiber:innen geführt. Im Zentrum standen dabei die Auswirkungen der Fahrradstraße auf die geschäftlichen Aktivitäten sowie Einflussfaktoren der Akzeptanz solcher Maßnahmen. Es konnte herausgearbeitet werden, dass die Fahrradstraße aus Sicht der ansässigen Gewerbetreibenden einen negativen Einfluss auf die Erreichbarkeit des Grüneburgwegs hat. Dies geht laut den befragten Gewerbetreibenden mit Umsatzverlusten, einem Rückgang an Kund:innen und Problemen mit der Warenlieferung einher. Ferner wird von einigen Gewerbetreibenden kritisiert, nicht rechtzeitig seitens der Stadt über den Umbau informiert worden zu sein und kein Mitspracherecht bei der Gestaltung der Fahrradstraße zu haben. Die von vielen Gewerbetreibenden wahrgenommenen Auswirkungen auf ihre geschäftlichen Aktivitäten, ihre Einbeziehung in den Planungs- und Umbauprozess sowie ihr eigenes Mobilitätsverhalten sind zentrale Einflussfaktoren für die Akzeptanz der Fahrradstraße. Die Ergebnisse zeigen, dass viele Gewerbetreibende zwar eine positive Einstellung zur Fahrradstraße haben, jedoch den Grüneburgweg nicht als einen geeigneten Standort für eine Fahrradstraße halten. Aus den Ergebnissen lässt sich schließen, dass für künftige Umgestaltungen besonders auf eine gute Kommunikation der Stadt mit den Gewerbetreibenden geachtet werden muss.
Das Ziel dieser Studie war der retrospektive Vergleich zweier fortschrittlicher robotergestützter Angiographie-Systeme in Bezug auf Strahlendosis und Bildqualität bei der Bildgebung im Rahmen der konventionellen transarteriellen Chemoembolisation (cTACE) von bösartigen Lebertumoren.
Dafür haben wir 106 Patienten (insgesamt 57 Frauen und 49 Männer; Durchschnittsalter 60 ± 11 Jahre), welche eine cTACE Therapie an einem der zwei Generationen von Roboter-Angiographieplattformen erhalten hatten, einbezogen. Die Patienten wurden in zwei Gruppen eingeteilt (n=53): Gruppe 1 (Behandlung am Gerät der ersten Generation) und Gruppe 2 (Behandlung am Gerät der zweiten Generation). Die Strahlendosis für die Fluoroskopie und die digitale Subtraktions-Angiographie (DSA) wurde zwischen den Angiographiegeräten der ersten bzw. zweiten Generation verglichen. Zu den besonderen Merkmalen des Systems der zweiten Generation- im Vergleich zum System der ersten Generation - gehörten ein verfeinertes kristallines Detektorsystem, zur verbesserten Rauschunterdrückung und eine fortschrittliche CARE-Filtersoftware, zur Senkung der Strahlendosis. Die Strahlendosis wurde mit einer herkömmlichen im Gerät verbauten Ionisationskammer gemessen. Die Bildqualität wurde von drei unabhängigen Radiologen anhand einer 5-Punkt-Likert-Skala bewertet. Beide Gruppen waren in Bezug auf Anzahl und Lage der Läsionen sowie Körpergewicht, BMI-Werte und anatomische Varianten der versorgenden Leberarterien vergleichbar (alle p > 0,05).
Das Dosisflächenprodukt (DAP) für die Fluoroskopie war in Gruppe 2 signifikant niedriger (1,4 ± 1,1 Gy·cm2) als in Gruppe 1 (2,8 ± 3,4 Gy·cm2; p = 0,001). Für DSA war DAP in Gruppe 2 (2,2 ± 1,2 Gy·cm2) signifikant niedriger (p = 0,003) gegenüber Gruppe 1 (4,7 ± 2,3 Gy·cm2). Die Ergebnisse für die DSA-Bildqualität (IQ) zeigten signifikante Verbesserungen für Gruppe 2 um 30% im Vergleich zu Gruppe 1 (p = 0,004). In der Fluoroskopie waren die Werte für den IQ in Gruppe 2 76% höher als in Gruppe 1 (p = 0,001). Eine gutes bis sehr gutes Inter-rater-agreement mit Kappa- Fleiss-Koeffizienten von κ = 0,75 für Gruppe 1 und κ = 0,74 für Gruppe 2 wurde erreicht.
Zusammenfassend ließ sich feststellen, dass die neueste Generation der robotergestützten Angiographiegeräte im Zusammenhang von cTACE der Leber eine erhebliche Reduzierung der Strahlendosis bei gleichzeitiger Verbesserung der Bildqualität in der Fluoroskopie und DSA-Bildführung ermöglicht.
Seit dem Sommersemester 2020 dominieren virtuelle Unterrichtsformen auch die Hochschulen. An der Frage nach Möglichkeiten und Grenzen digitaler Lehre scheiden sich aber schon länger die Geister des akademischen Lebens. Prof. Dr. Stefan Alkier sieht die Digitalisierung der Lehre kritisch. Er betont ihre bildungstheoretischen Grenzen und die Vorzüge „leibhaftiger Kommunikation“.
Die biblischen Schriften sind voller Konflikte. Sie zeichnen damit ein realistisches Bild von den Gefährdungen, Streitigkeiten, Herausforderungen und der Verletztheit menschlichen Lebens. Konfliktkonstellationen werden in den biblischen Texten vielfältig und komplex dargestellt, sodass sie sich solchen binären Simplifikationen entziehen, die die Welt selbstgerecht in ein Lager der Guten und ein Lager der Bösen aufteilen, wobei die Bösen natürlich immer die anderen sind...
Die transitorische Verortungskrise : das Fliegen als menschliche Fortbewegung der besonderen Art
(2013)
Die Unmöglichkeit, gleichzeitig an verschiedenen Orten zu sein, fordert die Menschheit zu technischen Erfindungen heraus. Ihr erklärtes Ziel: die Gebundenheit an Ort und Zeit zu überwinden. Der Traum des Ikarus blieb keine Fantasie, er weckte die Neugier der Ingenieure. Mit dem Bau von flugfähigen Maschinen gelingt es den Menschen, ihre Flugunfähigkeit und Bodenverhaftung zu überwinden oder zumindest zu kompensieren – aber um welchen Preis?
Weg mit den Talaren! Hoch die Doktorhüte! : vom Wandel der Zeremonialität an deutschen Universitäten
(2018)
"Unter den Talaren – Muff von 1000 Jahren": Dieser Slogan steht wie kaum ein anderer für die Aufbruchstimmung der 68er-Generation. Damit zielten die Hamburger Studenten auf das Verschweigen der NS-Vergangenheit ab, anschließend ging es aber auch den Talaren selbst an den Kragen. Seit einigen Jahren wird im zeremoniellen Raum der Universitäten vielfach experimentiert: Die Fächer bilden eine jeweils eigene Feierkultur aus – auf der Suche nach einem Übergang von der Universität in das berufliche Leben.
Nikotinische Acetylcholin Rezeptoren (nAChR) sind ligandengesteuerte Ionenkanäle der pentameren Cys-Loop Familie, welche nach Bindung des Neurotransmitters Acetylcholin exzitatorische Signale in Muskeln und Neuronen vermitteln. Während die Funktion der Rezeptoren an der synaptischen Membran relativ gut untersucht wurde, gibt es bis heute kaum Erkenntnisse über die intrazellulären Prozesse und Proteine, die der selektiven Assemblierung von homologen Untereinheiten zu funktionalen Rezeptorpentameren zugrundeliegen.
Das C. elegans Genom kodiert für mehr als 29 nAChR Untereinheiten-Gene und besitzt damit die größte Anzahl bekannter Homologe innerhalb der untersuchten Arten. An der neuromuskulären Synapse (NMJ) des Nematoden sind zwei Typen von nAChR bekannt: der heteromere Levamisolrezeptor (L-AChR) und der homomere Nikotinrezeptor (N-AChR). Innerhalb dieser Arbeit wurde der funktionale Zusammenhang zwischen den nikotinischen Rezeptoren der NMJ von C. elegans und einem neuen rezeptorassoziierten ER-Proteinkomplex der Proteine NRA-2 und NRA-4 untersucht. Ihre vertebraten Homologe Nicalin und Nomo wurden zuerst im ER vom Zebrafisch im Zusammenhang mit dem TGF-β Signalweg beschrieben. Mutation der Proteine hat einen Agonist-spezifischen Einfluss auf die Aktivität von L-AChR und N-AChR. Die subzellulären Lokalisationsstudien demonstrierten, dass die beiden Proteine im ER von Muskelzellen wirken und dort mit Rezeptoruntereinheiten co-lokalisieren. Weiterhin ließ sich nachweisen, dass die relative Menge einzelner L-AChR-Untereinheiten an der synaptischen Oberfläche reduziert bzw. erhöht ist. Da die Rezeptoraktivität in Zusammenhang mit der Untereinheiten Komposition steht, wurde die Rolle von zusätzlichen Untereinheiten wie ACR-8 untersucht. Dies zeigte, dass die zusätzliche Mutation der Untereinheit acr-8 in nra-2 Mutanten den Einfluss der nra-2 Einzelmutation auf die Aktivität des L-AChR revertiert. Basierend auf diesen Ergebnissen lässt sich die Hypothese formulieren, dass der NRA-2/NRA-4 Komplex im ER von C. elegans als Kontrollinstanz fungiert welche dafür sorgt, dass nur die jeweils „korrekten“ Untereinheiten in funktionale Rezeptoren eingebaut bzw. andere vom Einbau in das Pentamer abgehalten werden. Durch Fehlen des aktiven Komplexes in Mutanten können nicht vorgesehene -Untereinheiten (z. B. ACR-8) in funktionale Pentamere mit veränderter Funktionalität eingebaut werden.
Im Rahmen dieser Dissertation wurden unterschiedliche Aspekte der Verbreitung der Vertreter des Pseudoterranova decipiens Komplexes betrachtet und Fragestellungen zur Ökologie und Humanpathogenität der Parasiten bearbeitet. Sie basiert auf drei (ISI-) Fachartikeln, in denen die Nutzung von Fischparasitengemeinschaften als ökologische Indikatoren für entlegene Ökosysteme des Südpolarmeeres (I), die Modellierung geeigneter Verbreitungsgebiete für Arten mit geringen Vorkommensdaten am Beispiel des P. decipiens Komplexes (II) und das Vorkommen potentiell humanpathogener P. bulbosa in unterschiedlichen Mikrohabitaten in Atlantischem Kabeljau (III) thematisiert wurde.
Die Parasitengemeinschaften der in Studie I untersuchten, nahverwandten Antarktisdorsche (Nototheniinae) Nototheniops larseni (n=40), N. nudifrons (n=40) und Lepidonotothen squamifrons (n=49) unterschieden sich hauptsächlich hinsichtlich seltener Parasitenarten. Pseudoterranova decipiens E zählte zu den häufigsten Parasiten der drei betrachteten Wirtsarten. Die Analyse der Wirtsspektren der auf Artebene bestimmten Parasiten zeigte eine geringe Spezifität antarktischer Fischparasiten im Larven- (z.B. Pseudoterranova decipiens E) und Adultstadium (z.B. Elytrophalloides oatesi). Für eine Nutzung als Bioindikatoren ergibt sich die Empfehlung, nicht auf einzelne Parasitenarten, sondern die Zusammensetzung von Parasitenfaunen zurückzugreifen und Parameter wie Abundanz oder Intensität zu berücksichtigen. Vergleiche mit Literaturdaten legten nahe, dass ein Studiendesign, das den periodischen Vergleich der Parasitierungsmuster von Nototheniinae ermöglichen soll, Standorteffekte berücksichtigen sollte. Da es sich bei der Probennahme demersaler Fische um ein aufwändiges und einschneidendes Verfahren handelt, sollten alternative Samplingmethoden vorangetrieben und eine Datenbasis dafür geschaffen werden.
Um die Belastung von Speisefischen mit potentiell humanpathogenen Parasiten in bestimmten Fanggebieten abzuschätzen, kann anhand von Vorkommens- und Umweltdaten mittels statistischer Modelle die Habitateignung für den Parasiten bestimmt werden. Eine Voraussetzung für eine verlässliche Modellierung bilden die Wahl eines geeigneten Algorithmus und die Qualität der Eingangsdaten. Für die Modellierung geeigneter Verbreitungsgebiete für die sechs Arten des P. decipiens Komplexes wurde im Rahmen von Studie II erstmalig ein biotischer Deskriptor herangezogen. Dem Ansatz lag die Annahme zugrunde, dass das Vorkommen geeigneter Endwirte der entscheidende, limitierende Faktor für die Verbreitung eines Parasiten ist, da nur so der Lebenszyklus geschlossen werden kann. Als Hypothesentest dienten Vergleiche der ökologischen Nischen von Parasiten und ihren spezifischen Endwirten im Nischenraum. Anhand der Endwirtdistanz wurde eine Verbesserung der Modellierungsergebnisse mit MaxEnt, gegenüber der ausschließlich auf abiotischen Prädiktoren basierenden Modellierung, für alle Pseudoterranova Arten, insbesondere jene mit einer geringen Anzahl Fundpunkte, erzielt. Grundsätzlich ist der Ansatz auf marine Parasitenarten, deren spezifische Endwirte verlässliche Vorkommensdaten aufweisen, übertragbar. Die Methode stellt jedoch keinen Ersatz für die Erhebung von Vorkommensdaten dar, weshalb die genetische Bestimmung schwer zu identifizierender Taxa sowie die Angabe von Metadaten in jeder parasitologischen Studie obligatorisch sein sollten.
Die Verteilung potentiell humanpathogener Parasitenstadien in für den menschlichen Verzehr vorgesehenen Fischen kann ein entscheidender Faktor für die Übertragung sein. Im Rahmen von Studie III wurde mit dem Referenztranskriptom von P. bulbosa das erste Transkriptom für eine Art den P. decipiens Komplexes erstellt. Anhand einer differentiellen Genexpressionsanalyse wurde untersucht, was die Verteilung der Parasiten auf unterschiedliche Mikrohabitate beeinflusst haben könnte. Dabei wurden siebzig differentiell exprimierte Gene identifiziert, die in aus Leber (32 Gene) und Viscera (38 Gene) von Atlantischem Kabeljau (Gadus morhua) isolierten Proben von P. bulbosa hochreguliert waren. Eine Erklärung für diesen subtilen Unterschied könnte ein Dauerstadium der P. bulbosa Larven zum Zeitpunkt der Probennahmen sein. Ob sich bestimmte Mikrohabitate innerhalb des Wirtes begünstigend auf den Parasiten auswirken, muss mit Hilfe experimenteller Studien gezeigt werden. Erste in Studie III erhobene Daten zum allergenen Potential von P. bulbosa sollten in serologischen Studien getestet werden. Als Grundlage für die Bewertung des pathogenen Potentials von P. bulbosa, sowie der weiteren Arten des P. decipiens Komplexes, sollten in experimentellen Studien NGS-Daten erhoben werden.
Im Rahmen dieser Dissertation wurde in drei methodisch unterschiedlichen Studien ein Bedarf besserer Referenzdaten aufgezeigt. Bestreben diese Datenlücken zu schließen, um das Potential der Methoden besser ausschöpfen zu können, müssen zukünftig noch weiter verstärkt werden.
In dieser Arbeit soll identifiziert werden, welcher der zahlreichen Vertreter einer Arzneistoffklasse sich letztlich auf dem Markt durchsetzen kann und ob bestimmte pharmakokinetische, pharmakodynamische, klinische oder praktische Substanzeigenschaften retrospektiv für den Markterfolg einer Substanz verantwortlich gemacht werden können. Zudem stellt sich die Frage, ob und in wie fern Analogpräparate einen Nutzen in der Arzneimitteltherapie mit sich bringen, obwohl ihnen zum Zeitpunkt ihrer Markteinführung nur ein geringer Innovationsgrad zugebilligt wurde. Um derartige Rückschlüsse ziehen zu können wurden exemplarisch folgende fünf Arzneistoffklassen untersucht, die sich durch eine Vielzahl an Vertretern auszeichnen: Arsphenamine, Sulfonamide, Benzodiazepine, Glucocorticoide sowie Betablocker. Der Untersuchungszeitraum bemisst sich folglich vom Anfang des 20. Jahrhunderts, als industriell gefertigte, chemisch definierte hochpotente Wirkstoffe die Therapie zu bestimmen begannen, bis etwa zum letzten Drittel des 20. Jahrhunderts als Preise und Kostenerstattungsfragen zusätzlich zu Substanzeigenschaften für den Markterfolg mitbestimmend wurden.
Die Atmungskette in der inneren Membran der Mitochondrien besteht aus fünf großen Enzymkomplexen. Die NADH-Dehydrogenase (I), Succinat-Dehydrogenase (II, indirekt), Cytochrom c-Reduktase (III) und Cytochrom c-Oxidase (IV) nutzen die Energie aus Elektronentransfers zum Aufbau eines Protonengradienten über die innere Mitochondrienmembran. Dieser wird anschließend von der FOF1-ATP-Synthase (V) als Energiequelle zur Phospho-rylierung von ADP verwendet. Für lange Zeit bestand eine Kontroverse, wie diese Proteine in der Membran organisiert sind. Nach dem „random collision“-Modell diffundieren sie frei als Einzelmoleküle und treffen sich nur zufällig, während sie nach dem „solid state“-Modell größere funktionelle Einheiten bilden. In den letzten Jahren gab es vermehrt Hinweise darauf, dass das letztere Modell das zutreffendere ist, da tatsächlich sogenannte Superkomplexe der Atmungskette in aktiver Form isoliert werden konnten. Schließlich konnte 2007 die erste drei-dimensionale Rekonstruktion eines Superkomplexes, bestehend aus Komplex I, dimerem Komplex III und Komplex IV publiziert werden. Aufgrund der Einschränkungen der verwendeten Negativkontrasttechnik hatte dieses Modell allerdings nur eine niedrige Auflösung und repräsentierte durch die Dehydrierung keinen nativen Zustand. Dadurch ließen sich die Strukturen der einzelnen Komplexe nur ungenau einpassen. Um diese Probleme zu umgehen, sollte eine Struktur unter Kryo-Bedingungen rekonstruiert werden. Um die für Kryo-EM benötigte größere Ausbeute und höhere Konzentration zu erzielen, wurde ein neues Reinigungsprotokoll für die Superkomplexe etabliert. Die wesentlichen Punkte darin sind der Austausch des für die Solubilisierung verwendeten Digitonins durch Amphipol A8-35 mittels ?-Cyclodextrin und eine anschließende Dichtegradienten-Ultrazentrifugation. Im BN-PAGE zeigten die auf diese Art gereinigten Superkomplexe das gleiche Banden- und Aktivitätsmuster wie Proben in Digitonin. Auch bei einer Einzelpartikelanalyse nach Negativ-kontrastfärbung konnten keine Unterschiede festgestellt werden und die Partikel zeigten ähnliche Orientierungen wie in der vorherigen Studie. Einige neue Ansichten ließen sich jedoch nicht zuordnen und stellten eventuell eine Verunreinigung mit größeren Superkomplexen dar. Da auch bei der Reinigung mit Amphipol die Proteinkonzentration letztlich nicht wesentlich erhöht werden konnte und sich die Superkomplexe nicht wie für Kryo-EM erforderlich in einen löchrigen Kohlefilm einlagerten, wurden die Proteine auf einem durchgehenden Kohlefilm in einer dünnen Pufferschicht vitrifiziert. Die dabei zu beobachtenden bevorzugten Orientierungen, sollten auch die Unterscheidung von verschiedenen Populationen von Superkomplexen erleichtern. Eine erste 3D-Rekonstruktion wurde mit Hilfe der „random conical tilt“-Methode errechnet. Dieses Modell wurde durch „projection matching“ bis zu einer Auflösung von 19 Å verfeinert, womit die Auflösung fast doppelt so hoch ist, wie bei der Rekonstruktion aus Negativ-kontrastfärbung (36 Å). Die Struktur repräsentiert einen natürlichen Zustand des Proteins und zeigt Details wie einzelne Domänen, Spalten zwischen Domänen und eine starke Krümmung des Membranarms von Komplex I, die zuvor nicht erkenn-bar waren. Die Amphipole bilden einen Gürtel um den Transmembranbereich. Die Röntgenstrukturen von Komplex I, III2 und IV konnten mit großer Präzision in die Dichtekarte eingepasst werden. Die wenigen kleinen Unterschiede zwischen Röntgenstrukturen und EM-Dichtekarte sind auf leichte Konformations-änderungen zurückzuführen. Die Kryo-EM-Rekonstruktion ist erheblich größer als die Rekonstruktion aus Negativfärbung, wodurch die enthaltenen Komplexe nur noch wenige punktuelle Kontakte haben. In den Zwischenräumen könnte eine spezielle Lipidumgebung die kleinen Elektronenüberträger Ubichinon und Cytochrom c in den Superkomplex integrieren. Ihre Bindestellen sind jeweils zueinander orientiert und die geringen Abstände, die zum ersten Mal bestimmt werden konnten, stützen die Hypothese eines gerichteten Substrattransfers über kurze Entfernungen. Von den möglichen Übertragungswegen scheint der kürzere mit weniger Transferreaktionen bevorzugt zu werden. Während der Entwicklung des neuen Reinigungsprotokolls für die Superkomplexe konnte zusätzlich eine neue Methode zur Rekonstitution von Membranproteinen entwickelt werden. Die solubilisierten Proteine werden dabei in Dichtegradienten mit steigenden Konzentrationen von ansolubilisierten Liposomen und Cyclodextrin zentrifugiert, wodurch ihnen langsam das Detergens entzogen und durch Lipid ersetzt wird. Proteoliposomen werden gleichzeitig von überschüssigem Lipid und Cyclodextrin-Detergens-Komplexen getrennt.
Die Familie von der Tann entstammt altem fuldischem Lehnsadel und war in den Prozess der Entstehung der fränkischen Reichsritterschaft von Beginn an eingebunden. Zur Reformationszeit taten sich vor allem die Brüder Eberhard und Alexander von der Tann hervor, die als fürstliche Ratgeber in Kursachsen bzw. Hessen tätig waren. Vor allem Eberhard von der Tann hat in vielfacher Weise an der Verwirklichung von Luthers Reformvorstellungen mitgewirkt. So war er 1555 auf dem Reichstag zu Augsburg als protestantischer Verhandlungsführer entscheidend am Zustandekommen des Religionsfriedens beteiligt, eine Tatsache, die in der einschlägigen Forschung bis heute noch wenig beachtet wurde.
Brückenbauer in den Markt : wie Erfindungen an der Goethe-Uni ihren Weg in die Wirtschaft finden
(2018)
Zielsetzung dieser Arbeit ist es Nutzern, ohne Programmierkenntnisse oder Fachwissen im Bereich der Informatik, Zugang zu der automatischen Verarbeitung von Texten zu gewährleisten. Speziell soll es um Geotagging, also das Referenzieren verschiedener Objekte auf einer Karte, gehen. Als Basis soll ein ontologisches Modell dienen, mit Hilfe dessen Struktur die Objekte in Klassen eingeteilt werden. Zur Verarbeitung des Textes werden NaturalLanguage Processing Werkzeuge verwendet. Natural Language Processing beschreibt Methoden zur maschinellen Verarbeitung natürlicher Sprache. Sie ermöglichen es, die in Texten enthaltenen unstrukturierten Informationen in eine strukturierte Form zu bringen. Die so erhaltenen Informationen können für weitere maschinelle Verarbeitungsschritte verwendet oder einem Nutzer direkt bereitgestellt werden. Sollten sie direkt bereitgestellt werden, ist es ausschlaggebend, sie in einer Form zu präsentieren, die auch ohne Fachkenntnisse oder Vorwissen verständlich ist. Im Bereich der Geographie wird oft der Ansatz befolgt, die erhaltenen Informationen auf Basis verschiedener Karten, also visuell zu verarbeiten. Visualisierungen dienen hierbei der Veranschaulichung von Informationen. Durch sie werden die relevanten Aspekte dem Nutzer verdeutlicht und so die Komplexität der Informationen reduziert. Es bietet sich also an, die durch das Natural Language Processing gesammelten Informationen in Form einer Visualisierung für den Nutzer zugänglich zu machen. Im Rahmen dieser Arbeit über Geotagging und Ontologie-basierte Visualisierung für das TextImaging wird ein Tool entwickelt, das diese Brücke schlägt. Die Texte werden auf einer Karte visualisiert und bieten so eine Möglichkeit, beschriebene geographische Zusammenhänge auf einen Blick zu erfassen. Durch die Kombination der Visualisierung auf einer Karte und der Markierung der entsprechenden Entitäten im Text kann eine zuverlässige und nutzerfreundliche Visualisierung erzeugt werden. Bei einer abschließenden Evaluation hat sich gezeigt das mit dem Tool der Zeitaufwand und die Anzahl der fehlerhaften Annotationen reduziert werden konnte.Die von dem Tool gebotenen Funktionen machen dieses auch für weiterführende Arbeiten interessant. Eine Möglichkeit ist die entwickelten Annotatoren zu verwenden um ein ontology matching auf Basis bestimmter Texte auszuführen. Im Bereich der Visualisierung bieten sich Projekte wie die Visualisierung historischer Texte auf Basis automatisch ermittelter, zeitgerechter Karten an.
This thesis deals with the simulation, optimization and realization of quasi-optical scanning systems for active THz cameras. Active THz cameras are sensitive in the THz regime of the electromagnetic spectrum and are suitable for the detection of metal objects such as weapons behind clothing or fabrics (maybe for security applications) or material investigation. An advantage of active THz-systems is the possibility to measure the phase of the THz-radiation and thus to reconstruct the surface topography of the objects under test. Due to the coherent illumination and the required system parameters (like image field size, working distance and lateral resolution) the optical systems (in the THz region often called quasi-optical systems) must be optimized. Specifically, the active illumination systems require highly optimized quasioptical systems to achieve a good image quality. Since currently no suitable multi-pixel detectors are available, the object has to be scanned in one or two dimensions in order to cover a full field of view. This further reinforces the occurring aberrations. The dissertation covers, alongside the underlying theory, the simulation, optimisation and realisation of three different active THz systems. The subdivision of the chapters is as follows: Chapter 1 deals with a motivation. Chapter 2 develops the underlying theory and it is demonstrated that the geometrical optics is an adequate and powerful description of the image field optimization. It also addresses the developed analytic on-axis and the off-axis image field optimization routine. Chapter 3, 4 and 5 are about the basis of various active THz cameras, each presented a major system aspect. Chapter 3 shows how active THz-cameras with very high system dynamics range can be realised. Within this chapter it could although be demonstrated how very high depth resolution can be achieved due to the coherent and active illumination and how high refresh rate can be implemented. Chapter 4 shows how absolute distance data of the objects under test can be obtained. Therefore it is possible to reconstruct the entire object topography up to a fraction of the wavelength. Chapter 5 shows how off-axis quasi-optical systems must be optimized. It is also shown how the illumination geometry of the active THz systems must be changed to allow for real-time frame rates. The developed widened multi-directional lighting approach also fixes the still existing problem of phase ambiguity of the single phase measurement. Within this chapter, the world’s first active real-time camera with very high frame rates around 10 Hz is presented. This could be only realized with the highly optimised quasioptical system and the multi-directional lighting approach. The paper concludes with a summary and an outlook for future work. Within the outlook some results regarding the simulation of synthetic aperture radar systems and metamaterials are shown.
Im Rahmen der vorliegenden Diplomarbeit wurden die bei den Kalttests der supraleitenden 360 MHz CH-Prototypkavität gewonnenen Messergebnisse sowie das Prinzip der Hochfrequenzmessung an supraleitenden Resonatoren vorgestellt. Zudem wurde bei dem Aufbau eines eigens für diese Messungen optimierten horizontalen Kryostaten mitgearbeitet. Die wesentlichen Elemente des Kryostaten wurden dargestellt und das Kaltfahren des gesamten Kryosystems erläutert. Das am IAP erarbeitete Tuningkonzept, bei dem ein langsamer, kettenbetriebener Tuner für den Ausgleich statischer Frequenzänderungen und zusätzlich drei Piezotuner zur Kompensation schneller Frequenzschwankungen eingesetzt werden, konnte aufgrund der zu groÿen Schwankungen der Resonanzfrequenz, die durch die stetige Befüllung des Kryostaten mit Helium hervorgerufen wurde, nur bedingt getestet werden. Dennoch konnte gezeigt werden, dass der Piezotuner die Frequenz der Kavität für kurze Zeit konstant hält und der langsame, mechanische Tuner einen Frequenzhub von 400 kHz erreichen kann. Für weitere Kalttests der CH-Struktur im horizontalen Kryostaten werden zur Zeit sowohl das Regelsystem für die schnellen Piezotuner als auch die Motorsteuerung des mechanischen Tuners optimiert.
In einem weiteren Arbeitsschritt wurden mit Hilfe der Simulationssoftware ANSYS Rechnungen zur Geometrieoptimierung des neuen dynamischen Balguners für zukünftige supraleitende CH-Strukturen durchgeführt. Das Hauptaugenmerk der Optimierung lag hierbei auf der Reduktion der auftretenden Materialspannungen bei einem vorgesehenen Hub von ca. ± mm, der durch eine äuÿere Belastung hervorgerufen wird. Dabei wurden verschiedene geometrische Gröÿen variiert und die optimalen Parameter gefunden. Zudem wurde eine Modalanalyse durchgeführt, um zu verhindern, dass die mechanischen Eigenfrequenzen des Balgtuners in den Betriebsbereich des Piezotuners, der letztlich für den Antrieb der dynamischen Balgtuner vorgesehen ist, fallen. Die nach sämtlichen Simulationsschritten berechnete und final vorgesehene Tunergeometrie und deren Parameter, die bezüglich des auftretenden von-Mises-Stresses optimiert wurden, sind in Abbildung bzw. Tabelle 9.1 dargestellt.
Desweiteren wurden mit Hilfe des Simulationsprogramms CST MicroWave Studio Untersuchungen zu Multipacting durchgeführt. Aufgrund der problematischen Spannungswerte im oberen Gap des Tuners müssen in weiteren Arbeitsschritten zusätzliche Simulationsrechnungen durchgeführt werden, um die Gefahr von Multipacting zu verhindern. Um die strukturmechanischen Simulationsergebnisse und deren Genauigkeit zu validieren, wurde zu Testzwecken ein Balgtunerprototyp bestehend aus eineinhalb Zellen von der Firma RI in Bergisch Gladbach gefertigt. Messungen der maximalen Auslenkung zeigten zwischen simulierten und gemessenen Werten eine Diskrepanz von einem Faktor von ungefähr 3.
Für weitere Testzwecke soll ein weiterer Balgtunerprototyp bestehend aus 6 Zellen nach den simulierten Parametern angefertigt und später sowohl bei Raumtemperatur als auch unter kryogenen Bedingungen auf dessen Auslenkung getestet werden.
Die Dritte Option: Für wen?
(2017)
Sollte der Gesetzgeber eine Dritte Option im Personenstandsrecht einführen, so wird er sich damit auseinandersetzen müssen, wer Zugang zu dieser Dritten Option erhalten soll. Dieser Beitrag geht der Frage nach, was sich aus der Entscheidung vom 10. Oktober 2017 dazu entnehmen lässt: Muss die dritte Option neben inter*geschlechtlichen Menschen auch allen anderen offen stehen, die sich weder als Mann noch als Frau verstehen?