Refine
Year of publication
Document Type
- Doctoral Thesis (3623) (remove)
Language
- German (3623) (remove)
Has Fulltext
- yes (3623)
Is part of the Bibliography
- no (3623) (remove)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1388)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Die vorliegende Arbeit beschreibt die Entwicklung eines interaktionalen Simulationsmodells zum späteren Einsatz in der VR-Simulation Clasivir 2.0 (Classroom Simulator in Virtual Reality), welche in der Lehrkräftebildung eingesetzt werden soll. Das Clasivir-Simulationsmodell wurde im Rahmen eines Prototyps implementiert und zwei anderen Simulationsmodellen in einem Fragebogen entgegengestellt. Ein Simulationsmodell beschreibt im Kontext einer digitalen Schulunterrichtssimulation, wie sich SuS in der Simulation verhalten.
Die drei Simulationsmodelle wurden über zwei unterschiedliche Typen von Video-Visualisierungen, genannt Mockup-Videos, dargestellt: Zum einen über eine 2D-Darstellung aus Vogelperspektive, zum anderen über eine 3D-Darstellung, in welcher 3D-Modelle von SuS animiert wurden. Bei dem realen Simulationsmodell handelt es sich um eine Übertragung einer authentischen Videoaufzeichnung von Unterricht einer hessischen Realschule in 2D/3D-Visualisierungen. Im randomisierten Simulationsmodell führen SuS ihre Verhalten zufällig aus. Alle Modelle basieren auf zweisekündigen Intervallen. Im Falle des realen Simulationsmodells wurde dies durch Analyse aller beobachtbaren einundzwanzig SuS gewonnen, im Falle des Clasivir-Simulationsmodells wurden die Vorhersagen des Simulationsmodells übertragen. Das Simulationsmodell von Clasivir basiert auf behavior trees, stellt eine Art von künstlicher Intelligenz dar und modelliert das SuS-Verhalten größtenteils in Abhängigkeit von Lehrkrafthandlungen. Die Entwicklung des interaktionalen Simulationsmodells von Clasivir ist eine Kernkomponente dieser Arbeit. Das Simulationsmodell basiert auf empirischen Ergebnissen aus den Bereichen der Psychometrie, der pädagogischen Psychologie, der Pädagogik und Ergebnissen der Simulations-/KI-Forschung. Ziel war die Entwicklung eines Modells, das nicht nur auf normativen Vorhersagen basiert, sondern empirisch und theoretisch valide ist. Nur wenige Simulationsmodelle in Unterrichtssimulationen werden mit dieser Art von Transparenz beschrieben, was eines der Alleinstellungsmerkmale dieser Arbeit ist. Es wurden Anstrengungen unternommen die vorliegenden empirischen Ergebnisse in einen kausalen Zusammenhang zu bringen, der mathematisch modelliert wurde. Im Zentrum steht die Konzentration von SuS, welche Ein uss auf Stör-, Melde- und Antwortverhalten hat. Diese Variable wird durch andere situative und personenbezogene Variablen (im Sinne von traits) ergänzt. Wo keine direkten empirischen Ergebnisse vorlagen wurde versucht plausibles Verhalten anhand der Übertragung von Konzeptionsmodellen zu gewinnen.
Da die bisherige Verwendung der angrenzenden Begriffe rund um die Simulationsentwicklung bislang sehr inkonsistent war, wurde es notwendig diese Termini zu definieren. Hervorzuheben ist die Entwicklung einer Taxonomie digitaler Unterrichtssimulationen, die so bislang nicht existierte. Anhand dieser Taxonomie und der erarbeiteten Fachtermini wurden Simulationen in der Lehrkräftebildung auf ihre Modellierung des Simulationsmodells hin untersucht. Die Untersuchung der Simulationen simSchool und VCS war, da sie einen verwandten Ansatz zu Clasvir verfolgen, besonders ergiebig.
Nach der Generierung der Mockup-Videos wurden N=105 Studierende, N=102 davon Lehramtsstudierende, aufgefordert, in einem Online-Fragebogen zwei der Simulationsmodelle miteinander zu vergleichen. Lehramtsstudierende wurden ausgewählt, da sie die Zielgruppe der Simulation sind. Welche Modelle die Partizipantinnen verglichen, war abhängig von der Gruppe der sie zugeteilt wurden. Hierbei wurde neben den Simulationsmodellen auch die visuelle Darstellung variiert. Insbesondere wurden die Partizipantinnen darum gebeten, den Fidelitätsgrad des Simulationsmodells, also den Maßstab, wie realistisch die Partizipantinnen das Verhalten der SuS in der Simulation fanden, zu bewerten. Inferenzstatistisch bestätigte sich, dass Partizipantinnen keinen Unterschied zwischen dem realen Simulationsmodell und dem Clasivir-Simulationsmodell erkennen konnten (t=1.463, df=178.9, p=.1452), aber das randomisierte Simulationsmodell mit einer moderaten Effektstärke von d=.634 als signifikant schlechter einschätzten (t=-2.5231, df=33.581, p=.008271). Die Art der Darbietung (2D oder 3D) hatte keinen statistisch signifikanten Einfluss auf die wahrgenommene Schwierigkeit der Bewertung (z=1.2426, p=.107). Damit kann festgestellt werden, dass eine komplexe und zeitintensive 3D-Visualisierung eines Simulationsmodells bei noch nicht vorliegender Simulation nicht erforderlich ist. Das Clasivir-Simulationsmodell wird als realistisch wahrgenommen. Es kann damit empfohlen werden, es in der VR-Simulation zu verwenden.
Im Ausblick werden bereits während des Schreibens der Arbeit gemachte Entwicklungen beschrieben und Konzepte zum weiteren Einsatz der Ergebnisse entwickelt. Es wird darauf verwiesen, dass eine erste Version eines VR-Simulators entwickelt wurde (Clasivir 1.0), der jedoch rein deterministisch funktioniert und noch nicht das in dieser Arbeit entwickelte Simulationsmodell inkludiert.
Die vorliegende Arbeit behandelt den Vergleich zweier Geräte - „Endotrust MiFusion TLS 2“ und „Medtronic LigaSure Maryland System“ - zur endoskopischen Entnahme der Arteria radialis (RA) zur Verwendung als Bypass-Gefäß in der Herzchirurgie.
Grundsätzlich kommen in der Bypass-Chirurgie zur Herstellung eines Free-Grafts am Herzen neben der Verwendung der Thoraxarterien die Vena Saphena Magna (VSM) sowie die RA in Frage. In den aktuellen europäischen Leitlinien zur Behandlung von hochgradigen Stenosen wird die Verwendung der RA empfohlen („Class 1 Level B“-Empfehlung).
Die Frage, ob die RA für den Einsatz als Bypass-Gefäß offen oder endoskopisch entnommen werden sollte, ist in der Literatur weiterhin umstritten. In den aktuellen Leitlinien zur Behandlung von koronaren Herzkrankheiten wird aufgrund dieser insoweit uneindeutigen Studienlage keine Empfehlung ausgesprochen. Trotzdem ist die endoskopische Entnahme der RA im klinischen Alltag mittlerweile etabliert. Im Kontext dieser uneindeutigen Studienlage einerseits und der praktischen Bedeutung endoskopischer Entnahme andererseits ist es Zielsetzung der vorliegenden Arbeit, durch einen Gerätevergleich einen Beitrag zur Optimierung der endoskopischen Operationstechnik zu leisten. Es soll zudem aufgezeigt werden, inwieweit die endoskopische Entnahme der RA ein sicheres und effizientes Verfahren darstellt.
In der Literatur zum Vergleich von Operationstechniken zur Entnahme von Bypass-Gefäßen werden häufig histologische Untersuchungen angewendet. Diese ermöglichen eine zeitnahe Beurteilung der Qualität des entnommenen Grafts. Das ist auch in dieser Arbeit der wesentliche Grund dafür, dass die histologische Beurteilung der Qualität der RA als primärer Endpunkt angewendet wird. In Anlehnung an die Literatur wurde die strukturelle Integrität des Endothels und der Elastica interna beurteilt. Die histologische Beurteilung erfolgte nach Immunfluoreszenz-Bearbeitung der Proben.
Im Einklang mit der bestehenden Literatur zur Frage, ob die RA offen oder endoskopisch entnommen werden sollte, wurde in dieser Studie als sekundäre Endpunkte Kriterien bezüglich der Sicherheit und Effizienz der Entnahme verwendet. Dies betrifft das Auftreten von intra- und postoperativen Komplikationen, insbesondere im Hinblick auf neurologische Beeinträchtigungen am operierten Arm, sowie die Entnahmedauer und den operativen Aufwand zur Blutstillung.
Die in dieser Arbeit behandelte Studie wurde als prospektive, 1:1 randomisierte Studie mit zwei Gruppen mit jeweils 50 Patienten durchgeführt. Alle Operationen erfolgten im Zeitraum Januar 2017 bis Juli 2017 im Herzzentrum der Kerckhoff-Klinik Bad Nauheim.
Bezüglich der Resultate des Gerätevergleichs zeigte sich ein eindeutiges Ergebnis. Sämtliche Beurteilungskriterien, bei denen signifikante Unterschiede zwischen den beiden Gruppen aufgetreten sind, u.a. Integrität der Elastica interna, Entnahmedauer, Vorkommen von Residualblutungen, Auftreten von sensorischen Störungen fallen zugunsten des LigaSure-Systems aus.
Dabei ist unserer Meinung nach der wichtigste Einzelaspekt, dass die histologisch ermittelte Integrität der Elastica interna als Indikator für die Qualität des entnommen Grafts in der LigaSure-Gruppe signifikant besser war als in der MiFusion-Gruppe. Dagegen konnten aus der histologischen Untersuchung des Endothels keine klaren Rückschlüsse gezogen werden. Insofern besteht Unsicherheit, ob die Schädigung der Endothelschicht durch die Entnahme selbst oder durch die anschließende Präparierung der entnommenen Proben verursacht wurde.
Bezüglich der sekundären Endpunkte zeigten sich für die Mifusion-Patientengruppe im Vergleich zu anderen Studien zur endoskopischen Entnahme der RA zufriedenstellende bis gute und für die LigaSure Gruppe gute bis sehr gute Ergebnisse. Unabhängig vom verwendeten Gerät kann diese Studie deshalb als eine Bestätigung bisheriger Studien zur Vorteilhaftigkeit der endoskopischen RA-Entnahme angesehen werden. Letztlich fehlt jedoch weiterhin der Nachweis, dass eine endoskopische Entnahme unbedenklich im Hinblick auf den langfristigen kardiologischen Outcome ist. Dies bleibt zukünftiger Forschung vorbehalten.
Darüber hinaus trägt die Studie dazu bei, das klinische Erfahrungswissen über operationstechnische Details bei der Entnahme der Radialarterie zu erweitern und somit die Akzeptanz für die Verwendung der Radialarterie als Bypass-Gefäß in der koronaren Herzchirurgie zu verbessern.
Raumkonstruktionen, die über Handlung und Bedeutungszuschreibungen im Kontext sozialer Medien entstehen, sind ein Fallbeispiel dafür, wie vor dem Hintergrund von Digitalität Fachinhalte re-innoviert werden müssen. Mit dem Ziel eines Beitrags zur Konzeption professionellen Lehrkräftewissens im Kontext von Digitalität werden, ausgehend von der Fragestellung, welche professionellen Fähigkeiten Lehrkräfte benötigen, um Raumkonstruktionen im Unterricht zu thematisieren, in dieser kumulativen Dissertation Raumkonstruktionen aus normativer und empirischer Perspektive als exemplarischer geographischer Fachinhalt adressiert.
Als theoretischer Rahmen dient dabei das TPACK Modell von Mishra & Koehler (2006), das professionelles Lehrkräftewissen in die Bereiche fachliches, pädagogisches und technologisches Wissen sowie deren Überschneidungsbereiche einteilt. Zunächst erfolgt eine Anwendung des Modells als Reflexionsperspektive auf Fachinhalte zur Erzeugung normativer Fähigkeitsbeschreibungen. Diese Fähigkeitsbeschreibungen fließen in die Entwicklung eines TPACK-Selbsteinschätzungsfragebogens für Lehramtsstudierende der Geographie ein. Im Rahmen der damit durchgeführten Studie (n= 364) zeigen sich auf deskriptiver Ebene vergleichsweise niedrige Selbsteinschätzungen der Bereiche inhaltlichen und fachdidaktischen Wissens. Durch die Anwendung einer konfirmatorischen Faktorenanalyse kann das TPACK Modell als zufriedenstellend für die Beschreibung der Daten identifiziert werden. Auffällig ist allerdings die niedrige Korrelation des Konstrukts technologischen Wissens mit den angrenzenden Wissensbereichen. In Bezug auf die Selbsteinschätzungen im phasen- und kontextübergreifenden Vergleich lässt sich, ausgehend von linearen Regressionsanalysen, eine tendenzielle Zunahme der selbsteingeschätzten Fähigkeiten entlang der Fachsemesterzahl ermitteln. Mittels Zweistichproben-t-Tests können außerdem höhere Selbsteinschätzungen der pädagogischen Wissensbereiche durch Studierende, die als Vertretungslehrkräfte tätig sind, festgestellt werden.
In Bezug auf die zur Thematisierung von Raumkonstruktionen im Unterricht benötigten Fähigkeiten ist zunächst die Relevanz der Förderung der Integration fachlichen, pädagogischen und fachdidaktischen Wissens hervorzuheben. Die Studie gibt darüber hinaus Hinweise auf eine niedrigere Bedeutung technologischen Wissens im Hinblick auf soziale Medien als Beispiele alltäglicher Technologien. Vor dem Hintergrund des positiven Effekts von Selbstwirksamkeitsprozessen bieten die Ergebnisse Implikationen für eine Diskussion von praktischen Erfahrungen als Aspekt professionellen Lehrkräftewissens im Sinne der Förderung einer kritisch-reflexiven Auseinandersetzung mit der Tätigkeit als Vertretungslehrkraft aus fachdidaktischer Perspektive. Insgesamt leistet die kumulative Dissertation einen Beitrag zum Diskurs um fachliche geographische Bildung im Kontext von Digitalität und zur Konzeption des professionellen Lehrkräftewissens vor diesem Hintergrund.
Das radioaktive Edelgas Radon und seine ebenfalls radioaktiven Zerfallsprodukte machen den größten Teil der natürlichen Strahlenbelastung in Deutschland aus. Trotz der Einstufung als krebserregend für Lungenkrebs wird es zur Therapie entzündlicher Krankheiten eingesetzt. Der hauptsächliche Aufnahmemechanismus ist dabei die Inkorporation über die Atmung, wobei Radon auch über die Haut aufgenommen werden kann. Radon wird dabei über das Blut im gesamten Körper verteilt und kann in Gewebe mit hoher Radonlöslichkeit akkumulieren. Die Zerfallsprodukte verbleiben jedoch in der Lunge, zerfallen dort, bevor sie abtransportiert werden können und schädigen das dortige Gewebe.
Die Lungendosis wird laut Simulationen zum größten Teil durch die kleinsten Radon-Zerfallsprodukte (< 10 nm) bestimmt, die besonders effektiv im Respirationstrakt anheften. Die erzeugte Dosis ist dabei aufgrund der inhomogenen Anlagerung der Zerfallsprodukte lokal stark variabel. In Simulationen wurden Bifurkationen als Ort besonders hoher Deposition identifiziert, wobei die experimentelle Datenlage zur Deposition kleinster Radon-Zerfallsprodukte eingeschränkt ist. Aufgrund des Anstiegs der Komplexität von Simulationen oder Experimenten wird in den meisten Betrachtungen nicht der oszillatorische Atemzyklus berücksichtigt, sondern lediglich ein einseitig gerichteter Luftstrom betrachtet. Im Rahmen dieser Arbeit wurde ein experimentelles Modell entwickelt und etabliert, das die Messung der Deposition von Radon-Zerfallsprodukten ermöglicht und zwischen drei Größenfraktionen (Freie Zerfallsprodukte: < 10 nm, Cluster: 20-100 nm, Angelagerte Zerfallsprodukte: > 100 nm) unterscheiden kann. Der Luftfluss durch das Modell bildet sowohl die Inhalation als auch die Exhalation ab. Erste Experimente mit dem neu entwickelten Messaufbau konnten die aus Simulationen bekannte erhöhte Deposition der freien Zerfallsprodukte in einer Bifurkation abbilden. Die Vergrößerung des Bifurkationswinkels von 70° auf 180° zeigte lediglich einen minimalen Anstieg in der Größenordnung des Messfehlers. Der dominierende Prozess der Anlagerung der freien Zerfallsprodukte ist die Brown'sche Molekularbewegung, die unabhängig vom Bifurkationswinkel ist. Dennoch kann ein veränderter Winkel die Luftströmung und entstehende Turbulenzen verändern, wodurch die Deposition beeinflusst werden kann. Dies lässt sich jedoch mit dem hier benutzten Messaufbau nicht auflösen. Entgegen der Beobachtungen in der Literatur führte die Erhöhung der Atemfrequenz von 12 auf 30 Atemzüge pro Minute, in den im Rahmen dieser Arbeit durchgeführten Experimenten, zu keiner messbaren Veränderung der Deposition. Diese Beobachtung ist auf die Entstehung gegensätzlicher Effekte zurückzuführen. Einerseits führt eine schnellere Luftströmung zu kürzeren Aufenthaltszeiten der freien Zerfallsprodukte im Modell, wodurch die Deposition unwahrscheinlicher wird. Andererseits entstehen vermehrt sekundäre Strömungen und absolut betrachtet werden mehr Partikel durch das Modell gepumpt. Es ist davon auszugehen, dass sich diese Effekte im hier getesteten Bereich aufheben.
Als potentielle Schutzmaßnahme zur Reduktion der Lungendosis konnte im Rahmen dieser Arbeit die Filtereffzienz von Gesichtsmasken (OP-Masken, FFP2 Masken) gegenüber Radon und seinen Zerfallsprodukten bestimmt werden. Während Radon nicht gefiltert wird, wurden die freien Zerfallsprodukte fast vollständig (> 98%) und die Cluster zum größten Teil (≈ 80 %) zurückgehalten.
Radon selbst kann im gesamten Organismus verteilt werden und dort in Gewebe akkumulieren. Zur Bestimmung der Dosis wird dabei auf biokinetische Modelle zurückgegriffen. Diese sind von der Qualität ihrer Eingabeparameter abhängig, wobei beispielsweise die Werte zur Verteilung von Radon zwischen Blut und Gewebe auf experimentell gewonnenen Löslichkeitswerten aus Mäusen und Ratten beruhen. Unbekannte Werte werden von der Internationalen Strahlenschutzkommission basierend auf der Gewebezusammensetzung als gewichteter Mittelwert berechnet. In dieser Arbeit wurde die Löslichkeit in humanen Blutproben und wässrigen Lösungen verschiedener Konzentrationen der Blutproteine Hämoglobin und Albumin bestimmt. Es löste sich mehr Radon in Plasma als in Erythrozytenkonzentrat und Vollblut. Die Protein-Lösungen zeigten keine Konzentrationsabhängigkeit der Löslichkeit, sondern lediglich in hitzedenaturiertem Hämoglobin wurde eine niedrigere Löslichkeit gemessen. Basierend auf diesen Beobachtungen, sollte die These überprüft werden, ob sich die Löslichkeit einer Mischung als gewichteter Mittelwert der einzelnen Löslichkeiten berechnen lässt. Daher wurden diese in einer Mischung aus zwei Flüssigkeiten (1-Pentanol, Ölsäure) bestimmt. Die experimentell bestimmte Löslichkeit war dabei fast doppelt so groß wie der berechnete Wert. Dieser Unterschied kann dadurch zustande kommen, dass bei einer Berechnung basierend auf der Zusammensetzung die Wechselwirkungen zwischen den Lösungsmitteln vernachlässigt werden. Dies verdeutlicht die Notwendigkeit experimenteller Daten zur Verteilung und Lösung von Radon in verschiedenem Gewebe.
Einleitung: Die Zentrale Notaufnahme (ZNA) stellt eine Schnittstelle zwischen prä- und innerklinischer Versorgung dar. Das Spektrum der Krankheitsbilder erstreckt sich über jegliche Fachrichtungen und variiert von harmlosen Banalitäten bis zu akuten Notfällen. Eine sichere und suffiziente Primärversorgung ist die Basis eines qualitativ-hochwertigen Gesundheitssystems.2 Verspätete oder falsche Diagnosen in der ZNA sind mit 10-30 % keine Seltenheit.
Dies ist nicht nur für den individuellen Patienten belastend, es bedeutet auch einen zusätzlichen Ressourcenverbrauch und eine finanzielle Belastung für das Gesundheitssystem. Clinical Decision Support Systems (CDSS) haben das Potenzial, sowohl professionelle Anwender als auch Laien bei ihrer Diagnosefindung zu unterstützen. Fragestellung: Ziel der Arbeit ist es herauszufinden, welchen Einfluss der Diagnosezeitpunkt auf das Outcome von Patienten mit Abdominalschmerzen in der ZNA hat und inwiefern ein CDSS das Potenzial hat, die genannten Punkte zu beeinflussen.
Methoden: Es handelte sich um eine prospektive, doppelt verblindete Beobachtungsstudie. Patienten, die sich mit Abdominalschmerzen in der Notaufnahme vorstellten, gaben ihre Symptome in die Ada-App ein. Sowohl die Diagnosevorschläge der App als auch die Verdachtsdiagnosen des behandelnden Arztes wurden dokumentiert und verglichen. Weitere erhobene Parameter waren die Verwendung von apparativer Diagnostik, die vergangene Zeit bis zur endgültigen Diagnosestellung, das Auftreten von Komplikationen, die Komorbidität und Mortalität sowie die Länge des Krankenhausaufenthalts. Das Follow-Up erfolgte zu verschiedenen Zeitpunkten bis zu Tag 90. Für die Analyse wurden die 450 Patienten anhand des Zeitpunkts ihrer Diagnosestellung in Gruppen "früh" (Tag 0) und "spät" (Tag 1-24) eingeteilt.
Ergebnisse: Im Vergleich zur „frühen“ Gruppe, hatte die Gruppe der „spät“ diagnostizierten Patienten einen höheren Anteil von Männern (45.2% (n=168/372) versus 60.3 % (n=47/78); p=0.018), im Schnitt einen höheren Charlson Comorbidity Index (0.7 versus 1.1; p=0.045) und im Schnitt einen höheren RAI-C Score (8.06 versus 9.9; p<0.001) am Tag ihrer Vorstellung. Bei den „spät“ diagnostizierten blieben weniger Patienten komplikationsfrei (57.0 % 49 (n=212/372) versus 17.9% (n=14/78); p<0.001), es traten mehr Major-Komplikationen auf (8.9% (n=33/372) versus 17.9% (n=14/78); p=0.024), analog dazu war der Comprehensive Complication Index höher (13.1 versus 25.6; p<0.001) und sie verweilten länger im Krankenhaus (2.6 Tage versus 6.7 Tage; p<0.001). Zudem nahmen sie signifikant mehr apparative Diagnostik in Anspruch.
Die behandelnden Ärzte konnten in 82.6% der Fälle (n=372/450) am Tag der Vorstellung die korrekte Diagnose stellen. Die Ada-App konnte in insgesamt 52% der Fälle (n=234/450) die korrekte Diagnose unter ihren Diagnoseverschlägen nennen.
Schlussfolgerung: Multimorbide Patienten scheinen anfälliger zu sein für falsche und verspätete Diagnosen. Ein später Diagnosezeitpunkt korreliert mit der vermehrten Nutzung apparativer Diagnostik, einem komplikationsreicheren Verlauf, einer höheren Komorbidität und einem längeren Krankenhausaufenthalt.
Die Ada-App ist den Ärzten zwar unterlegen, dennoch ist Potenzial vorhanden.
Für Ärzte kann die Ada-App eine Unterstützung im Rahmen der Diagnosefindung darstellen. Neben der Ressourcenentlastung kann sie vor Fehlannahmen und frühzeitigen Schlussfolgerungen schützen und auf weitere mögliche Differentialdiagnosen hinweisen. Die Ada-App stellt für Laien mit Sicherheit eine Weiterentwicklung gegenüber der simplen Symptomsuche über das Internet dar, dennoch sollten weitere Studien den Nutzen und die Sicherheit der App überprüfen.
Der Natrium-abhängige Kaliumkanal Slack (KNa1.1, Slo2.2, KCNT1) nimmt eine Schlüsselrolle in der Regulation neuronaler Erregbarkeit ein, indem er die Ausbildung und Feuerungsfrequenz von Aktionspotentialen kontrolliert. Sowohl in Mäusen als auch in Menschen wird Slack besonders hoch in nicht-peptidergen C-Faser-Neuronen exprimiert. Wissenschaftliche Erkenntnisse der letzten Jahre konnten die Beteiligung von Slack-Kanälen in der Signalverarbeitung neuropathischer Schmerzen, aber auch in verschiedenen Arten von Pruritus, feststellen. Dabei zeigen Slack-defiziente Mäuse ein verstärktes mechanisches Schmerzverhalten nach einer peripheren Nervenverletzung und ein erhöhtes Kratzverhalten in akuten Juckreiz-Modellen. Das als Slack-Aktivator identifizierte trizyklische Neuroleptikum Loxapin zeigt sowohl analgetische als auch antipruritische Effekte in Mäusen, jedoch ist sein klinischer Einsatz auf Grund schwerwiegender antipsychotischer Nebenwirkungen limitiert. Basierend auf Loxapins Leitstruktur wurden daher in dieser Arbeit neue Slack-Aktivatoren mit einem verbesserten pharmakologischen Profil designed und ihr Potential für die Therapie von Schmerzen sowie akutem und chronischem Pruritus in vivo untersucht.
In Deutschland leidet ca. jeder zehnte Mensch über 40 Jahren an einer chronischen Einschränkung seiner Nierenfunktion. Nicht wenige davon sind im Laufe der Erkrankung auf eine Nierenersatztherapie angewiesen. Die Ursachen für eine Nierenschädigung sind vielfältig. Als neuartiger und vielversprechender Therapieansatz werden aktuell Mesenchymale Stamm-/Stromazellen (MSC) als Therapeutikum für diverse Nierenerkrankungen getestet. Erste Ergebnisse klinischer Phase-I-Studien zeigen, dass MSC sicher als Immunsuppressivum nach Nierentransplantation angewendet werden können. Auch für weitere Erkrankungen der Niere sind erste klinische Studien am Laufen. MSC gelten als regenerativ, immunsupprimierend und antientzündlich. Dennoch gibt es noch einige Limitationen. Nach der Transplantation der Zellen ist das Wachstum der Zellen oft eingeschränkt und es kommt zur vermehrten Apoptose. Auch wird immer wieder ein paradoxes und entzündungsförderndes Verhalten der MSC am Wirkort beobachtet. Ein wichtiger Lösungsansatz ist eine in vitro Vorbehandlung der MSC zur Modulierung der zellulären Eigenschaften. In dieser Arbeit wurden drei Substanzen und Arzneimittel auf ihre Fähigkeit untersucht, die entzündungshemmenden Eigenschaften der MSC zu verbessern und die entzündungsfördernden zu unterdrücken. Der Fokus lag hierbei auf dem Arzneimittel Niclosamid und den beiden bisher noch nicht zugelassenen Substanzen Berberin und Gedunin, die alle in vitro und in vivo bereits erste vielversprechende antientzündliche Wirkungen bewiesen haben. Für diese Arbeit wurden MSC aus Fettgewebe isoliert (ASC) und mit LPS oder einem Cytokin-Mix (Mischung aus TNF-α, IFN-γ und IL-1β) sowie den drei Substanzen stimuliert. Untersucht wurden im Anschluss die mRNA-Expressionen der gängigsten proinflammatorischen (TNF-α, IL-6, TLR-4, ICAM-1, HLA-DR) und antiinflammatorischen Marker (IDO, IL-10), sowie mittels ELISA die Protein-Freisetzung von IL-6 und IL-8. Die vielversprechendsten Ergebnisse ließen sich durch Berberin hervorrufen. Hier zeigte sich eine deutliche Senkung der IL-8-Konzentration im ELISA. Die Anwendung des Gedunin hatte keine signifikante Wirkung auf die ASC. Niclosamid hingegen scheint widererwarten sogar entzündungsfördernd zu wirken, in dem es die IL-6-, ICAM-1-mRNA-Expression steigerte und die IDO-mRNA-Expression absenkte. Unter den drei getesteten Subtanzen hat Berberin die beste Wirkung bewiesen. Nach weiterer Testung könnte eine Anwendung mit Berberin als in vitro Präkonditionierung von MSC vielversprechend sein. Die Verwendung von Niclosamid hingegen sollte vermieden werden, die Wirkung von Gedunin müsste genauer untersucht werden.
Das Schilddrüsenkarzinom (SK) ist die häufigste bösartige endokrine Tumorerkrankung. Während das nicht-metastasierte und nicht-mutierte papilläre Schilddrüsenkarzinom (PSK) und das follikuläre Schilddrüsenkarzinom (FSK) eine gute Heilungschance aufweisen, zeigen die mutierten und metastasierten Varianten des PSK und FSK sowie das anaplastische Schilddrüsenkarzinom (ASK) weiterhin eine schlechte Prognose. Die Entwicklung von Therapieresistenzen stellen hierbei ein Hauptproblem in der Behandlung des fortgeschrittenen Schilddrüsenkarzinoms dar.
In den letzten Jahren wurden in Studien zunehmend Tumor-initiierende Zellen (TIZ) beschrieben, welche eine kleine Subpopulation von Zellen mit der Fähigkeit zur Selbsterneuerung, Tumorinitiierung und Entwicklung von Therapieresistenzen von Tumoren darstellen. Die Existenz von TIZ wurde auch im SK nachgewiesen. Ein entscheidender Faktor für die Persistenz von TIZ ist die Hypoxie, welche über eine Veränderung des Tumormikromilieus und des Zellmetabolismus zur Entstehung von Therapieresistenzen beiträgt. Ein durch Hypoxie hochreguliertes Enzym ist die Carboanhydrase IX (CAIX). CAIX wird hauptsächlich von Tumorzellen exprimiert und katalysiert die Reaktion von Kohlendioxid zu Bicarbonat und einem Proton und trägt damit zur Säurepufferung der Tumorzelle bei. CAIX stellt somit einen entscheidenden Faktor für das Überleben von Tumorzellen in einem hypoxischen Milieu dar. Des Weiteren ist eine erhöhte Expression von CAIX mit einem schlechten Patienten-Outcome assoziiert, wie z.B. im Brustkrebs. Diese Eigenschaften machen CAIX zu einem attraktiven Angriffspunkt einer zielgerichteten Tumortherapie. Die vorliegende Studie hat zum Ziel, die Expression von CAIX sowie dessen biologische Rolle im Schilddrüsenkarzinom näher zu untersuchen.
Hierzu wurden Proben von 114 SK-Patienten immunhistochemisch auf eine CAIX-Expression untersucht und mit tumorfreiem Schilddrüsengewebe verglichen. Hierbei waren unterschiedliche SK-Subtypen vertreten. Für eine weitere Validierung der Expressionsdaten erfolgte die Auswertung eines Datasets von „The Cancer Genome Atlas“ (TCGA) mithilfe von cBioportal. Da die Hypoxie ein wichtiger Faktor für die Persistenz von TIZ ist, wurde die CAIX-Expression in Tumorsphären, ein in vitro Nachweis von TIZ-Aktivität, mittels der Durchflusszytometrie bestimmt und mit der CAIX-Expression von Monolayern verglichen. Als SK-Zelllinien wurden BCPAP (PSK), FTC 133 (FSK) und 8505 C (ASK) verwendet. Anschließend wurde mithilfe der Polymerasekettenreaktion und Immunofluoreszenzfärbung untersucht, ob eine CAIX-Expression in den Tumorsphären mit der Expression von bereits bekannten Stammzellmarkern, u.a. NANOG, assoziiert ist. Die Unterschiede der CAIX-Expression, nach Inkubation der Monolayer jeweils in Normoxie und Hypoxie, wurden mittels Durchflusszytometrie bestimmt. Mithilfe eines genetischen CAIX-Knockdowns sowie einer pharmakologischen Inhibition mit dem CAIX-Inhibitor Methazolamid (MZM) wurde die Tumorzellproliferation und -Sphärenbildung unter Normoxie und Hypoxie bestimmt. Zusätzlich wurde der Einfluss von MZM auf die Apoptose und den Zellzyklus untersucht.
Immunhistochemische Färbungen der Gewebeproben von SK-Patienten zeigten, dass die CAIX-Expression sowohl im PSK und FSK als auch im ASK im Vergleich zum tumorfreien Schilddrüsengewebe erhöht war. Des Weiteren zeigte die klinisch-pathologische Datenanalyse, dass eine erhöhte CAIX-Expression mit dem Auftreten von Lymphknotenmetastasen im differenzierten SK assoziiert war. Auch die Analyse des TCGA-Datasets bestätigte, dass eine erhöhte Expression der CAIX-mRNA mit einem fortgeschrittenen Tumorstadium, Fernmetastasen und mit einem kürzeren Gesamt-Überleben von SK-Patienten korrelierte. Die weiteren funktionellen in vitro Untersuchungen ergaben, dass die CAIX-Expression in den Tumorsphären im Vergleich zu Monolayern erhöht und mit einer erhöhten Expression von Stammzellmarkern assoziiert war. Ein genetischer CAIX-Knockdown und eine CAIX-Inhibition mit MZM führten über eine Induktion der Apoptose und eines Zellzyklusarrests zu einer verminderten Tumorzellproliferation und Sphärenbildung.
Zusammenfassend deuten die Ergebnisse darauf hin, dass CAIX ein vielversprechendes Zielmolekül für eine gezielte Tumortherapie des fortgeschrittenen SK ist. Um diese Hypothese bestätigen zu können, sind jedoch weitere prospektive Analysen von Patientenproben sowie funktionelle in vivo Untersuchungen am SK nötig.
Polygene Risikoscores (PRS) integrieren zahlreiche Einzelnukleotid-Polymorphismen (SNP) von meist geringer Effektstärke, um Auskunft über das Erkrankungsrisiko bestimmter Krankheiten zu geben. In dieser Arbeit wurde der PRS zur genetisch generalisierten Epilepsie (GGE) von Leu et al. aus dem Jahr 2019 untersucht, um festzustellen, ob über das Erkrankungsrisiko hinaus noch Korrelationen mit weiteren phänotypischen Eigenschaften von Patienten bestehen. Der Nachweis solcher Zusammenhänge würde eine Prädiktionsfähigkeit des GGE-PRS demonstrieren, die perspektivisch ein Potential für dessen klinische Anwendbarkeit, beispielsweise im Sinne der personalisierten Medizin, aufzeigen könnte.
Die Identifizierung neuer Korrelationen sollte durch Vergleich der Phänotypen von zwei Gruppen von GGE-Patienten mit extrem hohen, beziehungsweise extrem niedrigen PRS-Werten erfolgen. Hierfür wurden von 2256 Patienten aus der Datenbank von Epi25, einem internationalen Forschungskollaborativ zur Erforschung der Relevanz genetischer Faktoren bei der Entwicklung von Epilepsie, die Patienten mit den höchsten (n=59) und den niedrigsten (n=49) GGE-PRS-Werten ausgewählt. Für diese 108 Patienten wurden retrospektive klinische Daten von den jeweiligen Behandlungszentren akquiriert. Hierzu wurde den Studienleitern der Zentren ein Questionnaire mit Fragen zu zahlreichen phänotypischen Parametern der Patienten übermittelt. Die Rücklaufrate war mit 54% gut.
Die so eingeholten Patientendaten wurden anschließend mittels Exaktem Test nach Fisher und Wilcoxon-Rangsummentest statistisch analysiert, um Unterschiede zwischen den Phänotypen beider Gruppen nachzuweisen. Im Falle der Pharmakoresistenz zeichneten sich hierbei zunächst signifikante Unterschiede ab, die ein selteneres Auftreten dieser Eigenschaft für Patienten mit hohen GGE-PRS-Werten implizierten. Diese Ergebnisse waren jedoch nach einer Bonferroni-Korrektur und bei Validierung in einer größeren Kohorte (n=825) nicht mehr signifikant. Für die anderen untersuchten Parameter waren ebenfalls keine signifikanten Unterschiede nachweisbar.
Das Ergebnis, dass für keinen der untersuchten Parameter signifikante Differenzen bestanden, obwohl zwei Kohorten mit extrem gegensätzlichen PRS-Werten untersucht wurden, spricht gegen eine Verwendung des aktuell verfügbaren GGE-PRS als prädiktiver Biomarker über das Erkrankungsrisiko hinaus und somit gegen dessen klinische Anwendbarkeit. Jedoch können die nicht-signifikanten Korrelationen im Falle der Pharmakoresistenz als Hinweis verstanden werden, dass im Bereich der Pharmakotherapie Zusammenhänge zwischen Score und Phänotyp bestehen könnten, die weiterer Untersuchungen in zukünftigen Studien bedürfen. Bei Verwendung eines verbesserten GGE-PRS mit zusätzlichen risikoassoziierten SNP und verfeinerter Wichtung der Effektstärken sowie größerer Kohorten könnten in diesem Bereich möglicherweise auch signifikante Zusammenhänge nachweisbar werden.
Finanzielle Armut prägt Mobilitätspraktiken und kann dabei zum Prozess von mobilitätsbezogener sozialer Exklusion beitragen. Zu den Personen, deren Armutsrisiko besonders hoch ist, zählen in Deutschland Haushalte mit Kindern, insbesondere Alleinerziehende. Ältere Menschen haben nicht die höchste Armutsgefährdung, jedoch besteht bei ihnen das Risiko von Verharrung in Armut, da die Möglichkeiten, die finanzielle Situation aus eigener Kraft zu ändern mit zunehmendem Alter sinken.
Um ein tieferes Verständnis davon zu erhalten, wie finanzielle Armut die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern sowie älteren Menschen prägt, wurden mit diesen beiden Personengruppen problemzentrierte Interviews in Ronnenberg (Region Hannover) geführt und analysiert. Die Ergebnisse belegen, dass, wenngleich alle Befragten mit ähnlich geringen finanziellen Ressourcen haushalten und Verzicht sowie Abwägungsprozesse notwendig sind, sich ihre Mobilitätspraktiken und Alltagsbewältigungsstrategien unterscheiden, was sich in zwei Typologien widerspiegelt. Erstens, eine Typologie der Mobilitätspraktiken von Haushalten mit Kindern: (i) autozentriert, (ii) autoreduziert, (iii) ÖPNV-orientiert und (iv) nichtmotorisiert. Zweitens, eine Typologie älterer Menschen anhand ihrer Mobilitätspraktiken: (i) aktive ältere Menschen mit vielseitigen sozialen Interaktionen, (ii) nachbarschaftsorientierte ältere Menschen mit lokalen Kontakten und (iii) ältere Menschen, die überwiegend zu Hause sind und wenig soziale Kontakte haben.
Um herauszufinden, inwiefern mobilitätsbezogene Barrieren der sozialen Teilhabe reduziert werden können, wurden fünf Maßnahmen bezüglich ihrer Wirkung auf die Mobilitätspraktiken einkommensarmer Haushalte mit Kindern untersucht: einerseits die Wirkung des 9-Euro-Tickets anhand von problemzentrierten Interviews mit einkommensarmen Haushalten mit Kindern, andererseits anhand von Expert:inneninterviews die Wirkung von Radlernkursen für Frauen mit Migrationshintergrund, eines Mietertickets, eines Quartierstickets und der Verbesserung der Nahraum- und Aufenthaltsqualität am Beispiel von Tempo 30. Die Ergebnisse zum 9-Euro-Ticket belegen, dass ein erschwingliches ÖPNV-Ticket erheblich zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe im Armutskontext beiträgt. Die Expert:inneninterviews zeigen auf, dass eine Förderung des Umweltverbunds zielführend ist, um zu einer sozial-ökologischen Verkehrswende beizutragen und insbesondere Maßnahmenbündel Wirkung auf die Reduzierung von mobilitätsbezogenen Barrieren der sozialen Teilhabe entfalten.
Die Erkenntnisse dieser Dissertation ergänzen den wissenschaftlichen Forschungstand um ein tiefergehendes Verständnis der Wirkung von finanzieller Armut auf die Mobilitätspraktiken und soziale Teilhabe von Haushalten mit Kindern und älteren Menschen und helfen dabei, Maßnahmen zur Reduzierung mobilitätsbezogener Barrieren der sozialen Teilhabe zu konzipieren und umzusetzen.
Die Appendizitis stellt mit einer Inzidenz von 115 pro 100000 Einwohnern in Deutschland eine der häufigsten Ursachen für ein akutes Abdomen dar. Bakterielle Infektionen sind ein wesentlicher Faktor für die postoperative Morbidität nach Appendektomie.
Ziel dieser prospektiven Studie war es, das Keimspektrum und insbesondere die Prävalenz resistenter Keime bei der akuten Appendizitis zu bestimmen und die Auswirkungen resistenter Keime auf das Auftreten infektiöser Komplikationen zu analysieren. Alle erwachsenen Patient*innen mit akuter Appendizitis, die zwischen April 2022 und Juli 2023 am Universitätsklinikum Frankfurt operativ behandelt wurden, wurden prospektiv eingeschlossen. Das Keimspektrum der Appendix und die Häufigkeit von MRE in Rektalabstrichen wurden analysiert. Die klinischen Daten wurden extrahiert, um die Korrelation des Keimspektrums mit dem Auftreten von postoperativen Komplikationen, Dauer und Art der Antibiotikatherapie und dem postoperativen Verlauf zu evaluieren. 30 Tage nach der Operation wurde ein Follow-up durchgeführt. Insgesamt wurden 105 Patient*innen in die Studie eingeschlossen.
In den Appendixabstrichen gelang ein Erregernachweis bei 67,6 % aller Fälle. Hierbei betrug die Prävalenz von Keimen mit Antibiotikaresistenz 43,8 %, Multipler-Antibiotikaresistenz (MAR) 27,6 % und bei 5,7 % der Fälle gelang ein MRE-Nachweis nach CDC im Appendixabstrich. Beim MRE-Screening konnten im Rektalabstrich bei 11,4 % der Patient*innen ein MRE nachgewiesen werden. In vier Fällen zeigte sich eine Übereinstimmung zwischen rektalen und appendikulären Abstrich, somit betrug die Sensitivität des MRE-Screenings für einen Nachweis multiresistenter Keime in der Appendix lediglich 33,3 % bei einer Spezifität von 86,7 %. In einer univariaten Analyse konnte das Vorliegen eines Diabetes mellitus als Risikofaktor für das Auftreten von Keimen mit Cefuroxim- Resistenz, Multipler-Antibiotikaresistenz (MAR) und MRE identifiziert werden.
Insgesamt erhielten 47,6 % aller Patient*innen postoperativ eine Antibiotikatherapie, von denen erfolgte bei 46 % eine Umstellung der empirischen Antibiose auf eine antibiogramm-gerechte Therapie nach Erhalt des mikrobiologischen Befundes. Insbesondere Patient*innen mit komplizierter Appendizitis erhielten postoperativ eine Antibiotikatherapie, wobei 28 % eine Antibiotikaeskalation benötigten.
Patient*innen, deren Appendixabstriche eine Resistenz gegen maximal ein Antibiotikum aufwiesen, wurden als nicht multiple Resistenz (Nicht-MAR) definiert und mit Patient*innen verglichen, deren Keime mit multipler Antibiotikaresistenz (MAR) waren. Die MAR-Gruppe zeigte im Vergleich zur Nicht-MAR-Gruppe eine höhere Inzidenz postoperativer Komplikationen, insbesondere eine erhöhte Inzidenz von Clavien-Dindo Grad 3 Komplikationen sowie von tiefen postoperativen Wundinfektionen (CDC Grad A3). Weiterhin benötigten Patient*innen der MAR-Gruppe häufiger eine postoperative Antibiotikatherapie und es erfolgte häufiger eine Eskalation der antibiotischen Therapie. Dies ging auch mit einem signifikant verlängerten Krankenhausaufenthalt einher.
Zusammenfassend kann festgestellt werden, dass eine bakterielle Infektion mit Multipler Antibiotikaresistenz bei der akuten Appendizitis häufig auftritt und die Morbidität nach Appendektomie beeinflusst. Die mikrobiologische Untersuchung mittels Appendixabstrich bei operativ behandelten Fällen von akuter komplizierter Appendizitis, die eine postoperative Antibiotikatherapie erfordern, könnte somit eine gezielte und kürzere Antibiotikatherapie ermöglichen. Dies könnte dazu beitragen, längere Krankenhausaufenthalte zu vermeiden, den unnötigen Einsatz unwirksamer Antibiotika zu reduzieren und die Kosten im Gesundheitswesen zu senken.
Das Glioblastom ist eine tödliche maligne Erkrankung des zentralen Nervensystems. Etablierte Therapiekonzepte resultieren in einer Fünfjahresüberlebensrate von fünf Prozent. Die derart infauste Prognose wird unter anderem bedingt durch die Heterogenität des Tumors. Insbesondere einer Population stammzellartiger Zellen wird die Verantwortung für Resistenz und Rekurrenz des Glioblastoms zugesprochen. Die genuine Plastizität des Glioblastoms mit entsprechender Fähigkeit zur Änderungen tumorweiter Expressionsprofile und Ausbildung einzigartiger funktioneller Fähigkeiten kann ohne gezielte Beeinträchtigung von stammzellartigen Zellen womöglich nicht ausreichend überwunden werden. Als Urheber kritischer Eigenschaften erscheint die erfolgreiche Elimination dieser Population innerhalb des Glioblastoms notwendig um nachhaltige Therapieerfolge zu erzielen. Mögliche Strategien der Elimination stammzellartiger Zellen setzen an Differenzierung und Ausbeutung stammzelltypischer Signalwege zur Modulation dieser Zellen an. Hierdurch sollen zentrale Fähigkeiten der Population stammzellartiger Zellen, wie Selbsterneuerung, Resistenz gegenüber Strahlen- und Chemotherapie und erneute Formation heterogener Tumore, überwunden werden.
Zentrale zelluläre Prozesse, welche zum Erhalt des stammzellartigen Zustandes dieser Zellen beitragen, sind unter anderem der Hedgehog- und Notch-Signalweg. Einer Beeinträchtigung dieser Signalwege wohnt womöglich die Fähigkeit der effektiven Modulation zentraler Eigenschaften stammzellartiger Zellen inne. Neben diesen Signalwegen gibt es eine Reihe weiterer Prozesse, welchen eine Urheberschaft an der Resistenz der Zellen zugesprochen wird. Hierzu zählt beispielweise der Prozess der Autophagie. Die Autophagie ist ein hochkonservierter zellulärer Mechanismus zur Selbsterneuerung durch Selbstdegradation fehlerhafter zellulärer Komponenten. Gleichzeitig kann die Autophagie durch eine Überaktivität zu einem spezifischen, autophagischen Zelltod beitragen. Die Modulation dieses Dualismus kann in einer Vielzahl von Tumoren, so auch im Glioblastom, das Schicksal einer tumorfördernden Autophagie in eine antitumorale Autophagie ändern.
Im Rahmen dieser Arbeit wurde erstmalig eine Modulation zentraler Eigenschaften stammzellartiger Zellen durch die Beeinflussung ihrer zellulären Prozesse mittels kombinierter Therapie durch Arsentrioxid oder GANT und (-)-Gossypol gezeigt. Arsentrioxid wirkt unspezifisch unter anderem als Inhibitor von Notch- und Hedgehog-Signalweg. Diese Inhibition wurde auch in den untersuchten Zellen nachgewiesen und führte zu einer Reduktion von stammzelltypischen Markerproteinen und Fähigkeiten der Tumorgenese in -vitro und ex -vivo, sowie zur Sensitivierung gegenüber strahleninduzierten Schäden. Gegenüber einer spezifischen Hedgehog-Inhibition durch eine GANT-vermittelte Bindung an Gli-Transkriptionsfaktoren zeigten sich deutliche Vorteile der dualen Inhibition durch Arsentrioxid hinsichtlich der genannten Eigenschaften. Die Kombination der Substanzen mit dem pan-Bcl-Inhibitor (-)-Gossypol führte zu einer synergistischen Steigerung der antitumoralen Effekte. (-)-Gossypol wird in Gliomzellen insbesondere mit der Modulation der autophagischen Maschinerie und Auslösung eines autophagischen Zelltodes in Verbindung gebracht. Die Ergebnisse weisen parallele Signalweginteraktionen mit effektiver Modulation des DNA-Damage-Response-Systems durch die Reduktion des Proteins CHEK als kausalen Mechanismus des Synergismus der Substanzen aus.
Die beobachteten Änderungen der typischen Eigenschaften stammzellartiger Zellen durch die Therapie mit Arsentrioxid und (-)-Gossypol implizieren lohnende Folgeuntersuchungen zur weiteren Evaluation dieser Effekte in -vivo, um zukünftig translationale Ableitungen zu erlauben. Die Heterogenität des Glioblastoms und seine genuine Plastizität lassen sich womöglich erfolgreich durch multiple Eingriffe in unterschiedliche zelluläre Prozesse, hierunter Notch- und Hedgehog-Signaling, modulieren. Hierdurch könnten zentrale Eigenschaften des Glioblastoms eventuell effektiv verändert und Resistenz sowie Rekurrenz überwunden werden.
Einleitung: Das Pseudoaneurysma (PSA) stellt eine der häufigsten Komplikationen nach arteriellen Punktionen dar. Dabei unterscheiden sich die Komplikationsraten kathetergestützter Verfahren bei diagnostischen Eingriffen deutlich von jenen bei therapeutischen Eingriffen. Zur Behandlung des Pseudoaneurysmas steht eine große Bandbreite an Therapieoptionen zur Verfügung, unter anderem die ultraschallgestützte Thrombininjektion (TI) sowie die Therapie mittels konventionellem Druckverband (DV). Jedoch werden venöse Thrombosen nach der Behandlung des Pseudoaneurysmas beschrieben. Der Einfluss von Antikoagulantien (AK) und Thrombozytenaggregationshemmern (TAH) sowohl auf die Erfolgsraten der Pseudoaneurysmatherapie als auch die anschließende Entstehung venöser Thrombosen wurde bisher noch nicht analysiert.
Fragestellung: Die Effektivität des Druckverbands und der Thrombininjektion bei Patienten mit Pseudoaneurysma und damit assoziierten venösen Thrombosen wurde geprüft. Außerdem wurden die Auswirkungen von Antikoagulantien und Thrombozytenaggregationshemmern auf die Erfolgsraten der Pseudoaneurysmatherapie und die damit assoziierten venösen Thrombosen untersucht.
Methoden: Es wurden von Januar 2010 bis Dezember 2018 insgesamt 468 Patienten mit Pseudoaneurysma untersucht, wovon 238 Patienten in die retrospektive Studie eingeschlossen wurden. Die Behandlung des Pseudoaneurysmas erfolgte mittels Thrombininjektion oder Druckverband. Nach Ablauf von 24 Stunden wurde der Therapieerfolg sonographisch kontrolliert, wobei auch auf das Neuauftreten venöser Beinvenenthrombosen geachtet wurde. Bei allen Patienten wurde die Medikation mit Antikoagulantien und Thrombozytenaggregationshemmern zum Zeitpunkt der Pseudoaneurysmatherapie erhoben.
Ergebnisse: Die Thrombininjektion war dem Druckverband sowohl hinsichtlich des größeren Therapieerfolgs (TI 86% vs. DV 52%, p<0,001) als auch der geringeren Thromboseinzidenz (TI 7,7% vs. DV 21,3%, p=0,039) signifikant überlegen.
Insgesamt erlitten 40 der 238 Patienten eine neu aufgetretene venöse Thrombose der unteren Extremität. Auch bei Betrachtung des Einflusses von Antikoagulantien und Thrombozytenaggregationshemmern erwies sich die 5 Thrombininjektion als dem Druckverband signifikant überlegen. Jedoch wurde bei der Thrombininjektion eine um 18% niedrigere Erfolgsrate unter Antikoagulation festgestellt (TIoAK 97% vs. TImAK 79%, p=0,22), wohingegen bei Druckverbandanlage unter Antikoagulation die Erfolgsrate nur um 6% geringer war (DVoAK 57% vs. DVmAK 51%, p=0,38). In Bezug auf die Thromboseraten nach Thrombininjektion bzw. Druckverband unter Antikoagulation oder Thrombozytenaggregationshemmern konnten keine signifikanten Unterschiede beobachtet werden.
Fazit: Es konnte nachgewiesen werden, dass die Thrombininjektion eine sichere Methode zur Behandlung des Pseudoaneurysmas darstellt und nach Ansicht der Autoren, bei vorhandener Expertise, primär angewandt werden sollte.
Denn die Thrombininjektion ist dem Druckverband in Bezug auf Erfolgs- und Thromboseraten signifikant überlegen. Antikoagulantien beeinträchtigen den Erfolg der Thrombininjektion stärker als den des Druckverbands, weshalb bei Notwendigkeit einer Pseudoaneurysmatherapie die Pausierung der Antikoagulantien im Rahmen einer patientenspezifischen Risiko-Nutzen-Abwägung in Betracht gezogen werden sollte.
Hintergrund: Die kardiale Magnetresonanztomographie (CMR) gilt als Referenzstandard für die Beurteilung der linksventrikulären Funktion und des Volumens des linken Ventrikels (LV). Neuartige Echtzeittechniken versprechen eine schnelle Bildgebung bei freier Atmung mit ähnlicher Qualität. Ziel dieser Studie war es, die Genauigkeit der standardmäßigen Steady-State-Free-Precession (SSFP)-Cine-Bildgebung bei angehaltenem Atem mit der gleichen Sequenz unter Verwendung von drei Signalmittelungen, während freier Atmung sowie mit einer Compressed-Sensing (Cs)- Echtzeittechnik während der freien Atmung zur Beurteilung von LV-Volumen und Masse zu vergleichen.
Methoden: 24 Probanden wurden mit einer Standard-SSFP-Technik bei angehaltenem Atem (BH), mit derselben Technik bei freier Atmung unter Verwendung von drei durchschnittlichen Herzzyklen (SA-FB) sowie mit einem CS-Echtzeitprotokoll bei freier Atmung (CS-FB) untersucht. Verglichen wurden die Erfassungsdauer, die Genauigkeit sowie die Inter- und Intraobserver-Variabilität von LV-Funktion, Volumen und Masse.
Ergebnisse: Die Echtzeit-Bildgebung war erheblich schneller als die freie Atmung mit drei Signalmittelwerten (p<0.001). Die Korrelation zwischen dem Referenzstandard (BH) und den beiden anderen Techniken war ausgezeichnet mit einem r2 für SA-FB vs. BH zwischen 0.74 - 0.89 und einem r2 für CS-FB vs. BH zwischen 0.81 und 0.94. SA-FB ergab mittlere Fehler zwischen 5.9% und 15% für verschiedene LV-Parameter, während CS-FB zu mittleren Fehlern von 6.5%bis 13% führte. Die Inter- und Intraobserver-Variabilität war bei der Echtzeit-Bildgebung ausgezeichnet und bei der SSFP-Bildgebung (SA-FB und BH) gut.
Schlussfolgerung: Sowohl ein Standardprotokoll mit 3 Signalmittelungen, während der freien Atmung als auch die Compressed Sensing liefern genaue und reproduzierbare Messungen des LV, während die Echtzeit-Bildgebung wesentlich schneller ist.
Ziel dieser Arbeit ist die Identifikation des Einflusses klassischer Labormaterialien und alternativer Experimentiermaterialien auf fachdidaktische Anforderungen an ein gelungenes Experiment im Chemieunterricht. Dabei umfassen alternative Experimentiermaterialien sowohl Materialien aus der alltäglichen Lebenswelt von Schülerinnen und Schülern als auch Materialien aus dem Bereich der Medizintechnik, die anstelle von Materialien des gängigen Laborbetriebs im Chemieunterricht eingesetzt werden. Um den Einfluss des Experimentiermaterials auf entsprechende Anforderungen untersuchen zu können, wurden im Rahmen eines Mixed-Method-Designs zwei aufeinander aufbauende Studien durchgeführt. Bei Studie I handelt es sich um eine qualitative Interviewstudie unter N = 13 Chemielehrkräften, mit denen vor dem theoretischen Hintergrund fachdidaktischer Anforderungen an ein gelungenes Schulexperiment problemorientierte, leit-fadengestützte Interviews zu Vor- und Nachteilen beim Einsatz alternativer Experimentiermaterialien und klassischer Labormaterialien im Chemieunterricht geführt wurden. Anhand des gewonnenen Interviewmaterials wurden anschließend zunächst Eigenschaften identifiziert, in denen sich beide Materialpools voneinander unterscheiden, um davon ausgehend ein Kategoriensystem aufstellen zu können, das in Form einer Matrix den Einfluss dieser Materialeigenschaften auf organisatorische, experimentelle und affektive Anforderungen an ein Schulexperiment im Chemieunterricht darstellt. Dabei konnte in Bezug auf organisatorische Anforderungen insbesondere ein Einfluss des Experimentiermaterials auf zeitliche und finanzielle Rahmenbedingungen sowie auf Anforderungen zur Sicherheit beim Experimentieren im Chemieunterricht festgestellt werden. Ergebnisse zum Einfluss des Experimentiermaterials auf affektive und experimentelle Anforderungen an ein Schulexperiment wurden wiederum genutzt, um anschließend Hypothesen zum Einfluss des Experimentiermaterials auf entsprechende Anforderungen an gelungene Experimente im Chemieunterricht zu generieren, dabei an gelungene Schülerexperimente im Speziellen. Diese Hypothesen wurden in einer zweiten Studie quantitativ getestet. Innerhalb eines experimentellen Untersuchungsdesigns führten dazu insgesamt N = 293 Schülerinnen und Schüler eines von insgesamt fünf betrachteten Schülerexperimenten mit jeweils klassischem Labormaterial oder in einer jeweiligen Variante aus alternativem Experimentiermaterial durch. Im Anschluss beurteilten N = 237 Schülerinnen und Schüler im Rahmen einer Fragebogenerhebung ihre subjektive Wahrnehmung der Experimentiersituation bezüglich der Variablen Grad der Herausforderung, Beobachtbarkeit, Autonomieerleben, Anspannung/ Druck, Kompetenzerleben und Interesse/ Vergnügen. Mit Ausnahme des Kompetenzerlebens und der Beobachtbarkeit konnte zu allen betrachteten Variablen ein signifikanter Einfluss des Experimentiermaterials festgestellt werden. Um diese Ergebnisse der Hypothesentests näher beschreiben und differenzierter erläutern zu können, beantworteten die 237 Schülerinnen und Schüler zusätzlich offene Fragen zu den von ihnen verwendeten Experimentiermaterialien; mit N = 56 weiteren Schülerinnen und Schülern wurden aus diesem Grund außerdem leitfadengestützte Gruppeninterviews geführt. Um folglich auch aus Schülerperspektive möglichst allgemeingültige Einflüsse beider Materialpools auf fachdidaktische Anforderungen an ein gelungenes Schulexperiment zusammenfassen zu können, werden die Ergebnisse dieser qualitativen Datenerhebung ebenfalls in Form einer entsprechenden Matrix dargestellt und dabei von den konkret durchgeführten Experimenten abstrahiert. Neben dem bereits genannten Einfluss des Experimentiermaterials auf den von Schülerinnen und Schülern wahrgenommenen Grad der Herausforderung, das wahrgenommene Autonomieerleben, die/ den wahrgenommene/n Anspannung/ Druck beim Experimentieren sowie das wahrgenommene Interesse/ Vergnügen an der Experimentiersituation konnte dadurch insbesondere ein Materialeinfluss auf die Durchschaubarkeit eines Versuchsaufbaus und deren einzelner Bestandteile sowie auf die wahrgenommene Authentizität einer Experimentiersituation identifiziert werden. Dadurch zeigt die Gesamtuntersuchung auf theoretischer Ebene die Bedeutsamkeit des konkreten Experimentiermaterials als Qualitätsmerkmal des Chemieunterrichts und gibt Lehrkräften auf unterrichtspraktischer Ebene einen Überblick zu Potentialen und Grenzen alternativer Experimentiermaterialien im Vergleich zu etabliertem klassischem Labormaterial.
Die kongenitale Zytomegalievirus Infektion (cCMV-Infektion) ist die häufigste kongenitale Infektionskrankheit weltweit und ist der häufigste Grund für angeborene nicht-genetische Hörstörungen und eine häufige Ursache neurologische Entwicklungsstörungen. Die Inzidenz der cCMV-Infektion liegt in Deutschland zwischen 0,2 % – 0,5 %. Bei retroviral-exponierten Neugeborenen wird die Inzidenz mit 2,7 % – 11,4 % angegeben. Mit der erhöhten Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen ergibt sich für diese Kinder ebenfalls ein erhöhtes Risiko für Langzeitfolgen. Die genaue Inzidenz der cCMV-Infektion variiert je nach untersuchter Population. Für Deutschland existiert eine retrospektive Studie, welche eine Inzidenz von 2,7 % für cCMV-Infektionen bei retroviral-exponierten Neugeborenen ermittelte. In der vorliegenden Studie wurde diese Inzidenz in einem prospektiven multizentrischem Studiendesign in Deutschland ermittelt.
Zur Ermittlung der Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen und Beurteilung der Umsetzbarkeit eines cCMV-Neugeborenen-Screenings wurde ein selektives cCMV-Neugeborenen-Screening für retroviral-exponierte Neugeborene mittels PCR-Untersuchung auf CMV aus einem Mundschleimhautabstrich innerhalb der ersten 21 Lebenstage an drei Studienstandorten innerhalb Deutschlands, Mannheim, München und Frankfurt am Main, durchgeführt. Bei positivem Ergebnis der PCR auf CMV-DNA erfolgte eine Bestätigungsdiagnostik mittels erweiterter Urin- und Blutuntersuchung auf CMV. Zur Diagnostik von cCMV-assoziierten Symptomen erfolgte eine Sonographie des Abdomens und des Schädels sowie eine ausführliche körperliche Untersuchung, eine augenärztliche Evaluation und erweiterte Testungen der Gehörfunktion. Nachuntersuchungen und Therapien wurden den betroffenen Familien außerhalb der Studie angeboten.
122 / 184 (66,3 %) HIV-exponierte Neugeborene von 111 Müttern wurden im Studienzeitraum zwischen dem 24.11.2017 und dem 31.03.2021 eingeschlossen. Eine cCMV-Infektion wurde bei einem Neugeborenen nachgewiesen, sodass die Inzidenz der cCMV-Infektion bei retroviral-exponierten Neugeborenen in dieser Studie 0,8 % beträgt. Eine HIV-Mutter-Kind-Transmission wurde nicht detektiert. Die Seroprävalenz für CMV bei den HIV-positiven Frauen lag in diesem Kollektiv bei 96,1 %.
Das Neugeborene mit nachgewiesener cCMV-Infektion zeigte eine zerebrale Beteiligung mit ependymalen Zysten und einer thalamostriatalen Vaskulopathie und erhielt außerhalb der Studie eine zeitgerechte antivirale Therapie mit Beginn in der Neonatalper-ode. Im Verlauf zeigten sich trotz der antiviralen Therapie Entwicklungsstörungen mit autistischen Verhaltensweisen. Die cCMV-Infektion wäre ohne ein routinemäßiges Screening mit großer Wahrscheinlichkeit nicht nachgewiesen worden.
Die frühzeitige Untersuchung der Probanden auf eine cCMV-Infektion hat sich in dieser Studie als vorteilhaft gezeigt, da bei Nachweis einer cCMV-Infektion zeitnah weiterführende Diagnostik und Therapien angeboten werden konnten. Auch die relativ große Anzahl an rekrutierten retroviral-exponierten Neugeborenen im prospektiven Studiendesign in Zusammenarbeit mit mehreren Studienzentren in Deutschland spricht für die Validität dieser Studie. Als Limitation ist zu nennen, dass ein statistisch signifikantes Ergebnis nicht erzielt werden konnte. Aufgrund der Corona-Pandemie kam es organisationbedingt zu einer relativ hohen Anzahl an nicht eingeschlossenen Patienten. Auch die geplante Rekrutierung einer Vergleichsgruppe in Südafrika konnte aufgrund der Pandemie nicht umgesetzt werden. Falsch negative Befunde wurden im Sinne der Familie nicht mittels Goldstandardmethode überprüft, sodass eine Unterschätzung der Rate an cCMV-Infektionen möglich ist.
Insgesamt konnte diese Studie neben der Ermittlung der cCMV-Inzidenz bei retroviral-exponierten Neugeborenen in Deutschland von 0,8 % aufgezeigt werden, dass selbst symptomatische cCMV-Infektionen ohne ein systematisches cCMV-Neugeborenen-Screening nicht sicher nachgewiesen werden konnte. Zudem konnte gezeigt werden, dass ein systematisches cCMV-Neugeborenen-Screening mittels Mundschleimhautabstrich in Deutschland praktikabel ist und bei den Sorgeberechtigten Akzeptanz findet. Den erhobenen Daten zur Folge könnte ein Screening aller Neugeborener oder zumindest ein risikoadaptiertes Screening auf das Vorliegen einer cCMV-Infektion dazu beitragen, dass mehr Kinder mit asymptomatischer oder unentdeckter symptomatischer cCMV-Infektion diagnostiziert werden und so eine entsprechende Behandlung ermöglicht sowie ggf. Langzeitfolgen möglichst verringert werden.
Weitere Studien zum Effekt der verfügbaren antiviralen Therapie bei cCMV-Infektionen und regelmäßiger Kontrolluntersuchungen nach stattgehabter cCMV-Infektion sind zu empfehlen, um die Auswirkungen dieser Maßnahmen auf den Krankheitsverlauf zu evaluieren.
S100A12 ist ein Entzündungsmarker, der inflammatorische Prozesse präzise anzeigt. Entzündungsprozesse mit erhöhten S100A12 Konzentrationen spielen vor allem bei Autoimmunerkrankungen wie der der rheumatischen Arthritis (RA), autoinflammatorischen Erkrankungen wie der juvenilen idiopathische Arthritis (JIA) oder weiteren Erkrankungen wie dem familiären Mittelmeerfieber (FMF) eine wichtige Rolle. Das S100A12 Protein besitzt drei verschiedene Konformationen: das Dimer, das Tetramer und das Hexamer. In verschiedenen Studien konnte gezeigt werde, dass das Hexamer an proinflammatorische Rezeptoren wie dem Toll-like Rezeptor-4 (TLR-4) und dem „receptor for the advanced glycation end products“ (RAGE) bindet und so die Produktion von weiteren Entzündungsmediatoren stimuliert. Daher besitzt die S100A12 Hexamerkonformation eine entscheidende Rolle in Entzündungsprozessen. Das Ziel bestand somit in der Selektion von Peptiden oder „single chain variable fragment“ (scFv)-Konstrukten, die exklusiv an die hexamere Konformation von S100A12 binden.
Mittels Biopanning von Peptid- und scFv-Phagen Bibliotheken konnten Peptide und scFvs selektiert werden. Die selektierten Peptide und die selektierten scFvs wurden in ELISAs weiter auf ihre Bindungseigenschaften charakterisiert. Durch Umklonierung in einen Fc-Konstrukt Vektor konnten die scFvs als vollständige scFv-Fc-Konstrukte exprimiert werden. Die Bindung der selektierten Peptide bestätigte sich als Biotin-Fusion im anschließenden ELISA. Es zeigte sich eine sehr hohe Bindungsspezifität der Peptide und der produzierten scFv-Fc-Konstrukte an das S100A12 Hexamer.
Mit den selektierten Liganden ist es gelungen einen Test zu entwickeln: an Streptavidin immobilisierte Peptide binden spezifisch das S100A12 Hexamer aus dem Testmedium und mittels selektiertem scFv-Fc-Konstrukten lassen sich die gebundenen S100A12 Proteine detektieren. Ein Detektionsantikörper ermöglichte die Visualisierung der gebundenen scFv-Fc-Konstrukte mittels Farbreaktion. Das S100A12 Hexamer konnte durch den Testaufbau auch im Plasma spezifisch detekiert werden.
Dieser Test könnte es ermöglichen, die exakte Diagnose und vor allem das Überwachung von Patienten mit steigenden Entzündungsmarkern, wie im Rahmen der autoinflammtorischen Erkrankung JIA oder einer Erkrankung wie dem FMF, zu verbessern. Mit einem verbessertem Krankheitsmonitoring könnte ebenfalls die Therapie im frühen Stadium optimiert werden.
Zusätzlich könnte ein mögliches therapeutische Potential der S100A12 Hexamer Liganden getestet werden. Sollten die hexamerspezifischen Liganden die Interaktion von S100A12 mit ihren Rezeptoren wie TLR-4 oder RAGE blockieren, ist eine therapeutische Verwendung in der Behandlung von Autoimmun- und autoinflammatorischen Erkrankungen möglich.
Auf Grund einer hohen Inzidenz und Mortalität, welche in den nächsten Jahren voraussichtlich eine deutliche Zunahme erfahren wird, stellt die Behandlung eines HCC an alle beteiligten Fächer der Medizin, sowie an den Patienten und die Patientin, eine enorme Herausforderung dar. In der klinischen Routine hat sich die TACE, nicht nur bei Patienten im intermediären Stadium der Erkrankung, etabliert, sodass im Laufe der Erkrankung nahezu jeder zweite Patient mindestens eine TACE-Behandlung bekommt.
Der mit Radiomics betitelte, im medizinischen Bereich relativ junge, Forschungszweig beschäftigt sich mit der Idee, dass in den Schnittbildern eine für das menschliche Auge nicht sichtbare Ebene von Informationen vorliegt, welche mit den richtigen Mitteln extrahiert, relevante Daten und Informationen zur Genetik, Phänotypie und Pathophysiologie des Tumors liefern kann.
Hier greift der Ansatz dieser Arbeit an. In dieser Arbeit wird die Hypothese postuliert, dass durch die Auswertung und Integration von Lipiodolablagerungen in der Zielläsion nach der ersten durchgeführten TACE eine zuverlässigere Prognose zum Therapieansprechen und Gesamtüberleben mit Hilfe von Radiomics möglich ist, als dies klinische Scores alleine erlauben.
Dazu wurde in dieser Arbeit ein Patientenstamm von 61 Patienten untersucht. Alle Patienten litten an einem histologisch gesicherten HCC. Bei allen Patienten wurden innerhalb eines Zeitintervalls von 6 Monaten drei TACE durchgeführt mit einer nachfolgenden Verlaufskontrolle mittels kontrastmittelgestützter MRT oder CT.
In einem dezidierten, mehrstufigen Verfahren wurden aus der nativen 24 Stunden postinterventionellen CT-Kontrolle die Lipiodol anreichernden HCC-Herde segmentiert. Aus diesem segmentierten 3-D Bilddatensatz wurde eine Vielzahl von bildgebenden Biomarkern, Features, extrahiert. Die Features wurden im weiteren Prozess selektiert, redundante und nicht reproduzierbare Features wurden für das weitere Vorgehen verworfen.
Aus den vorliegenden Daten der Patienten wurden Informationen selektiert, mit welchen insgesamt 5 klinische Scores berechnet wurden, diese Scores wurden im weiteren Verfahren ebenfalls als Features angesehen.
Mehrere Machine Learning-Algorithmen wurden mit der Zielvariable: Größenregredienz des Tumors nach TACE als Folge eines annehmbaren Therapieansprechens, angelernt.
Das beste Ergebnis lieferte ein ML-Algorithmus mit einem Random Forrest Klassifikator auf der Grundlage des kombinierten, aus Radiomics-Features und klinischem Score-Features bestehendem Featuresets.
Um die initial aufgestellte Hypothese zu überprüfen wurde die Zielvariable von Größenregredienz der TL auf OS verändert. Die Performance des ML-Algorithmus in Bezug auf die neu definierte Zielvariable OS wurde hierbei mit dem C-index bewertet. Im Test-Set liegt ein C-Index von 0,67 vor. Das kombinierte Modell aus klinischem Score und Radiomics zeigt hierbei eine Überlegenheit gegenüber dem klinischen Score allein (C-Index 0,58) und dem Radiomics score (C-Index 0,60). Dies bestätigt die aufgestellte Hypothese. Das kombinierte Modell hat die Fähigkeit, anhand der Lipiodolanreicherung in der 24 Stunden postinterventionell durchgeführten CT, zur Prädiktion eines Gesamtüberlebens von HCC-Patienten nach einer TACE.
Die Patienten mit der kürzesten und längsten Überlebenszeit innerhalb der Studienpopulation dienten als Grundlage für eine Kaplan-Meier-Schätzung und Berechnung eines Risiko-Scores (siehe Abbildung 37). Dabei zeigt sich eine signifikante Differenz zwischen den Risiko-Scores. Eine Kurve dieser Art könnte zukünftig theoretisch als Schätzung zur Überprüfung der Indikation einer TACE- Wiederholung für einzelne Patienten dienen. Für eine entsprechende Generalisierbarkeit sind weiterführende Studien zur Validierung nötig. Unsere Studie liefert hier erste vielversprechende Hinweise, wobei unsere Limitationen nicht zu vernachlässigen sind, wie im Detail diskutiert.
Zusammenfassend zeigt unsere Arbeit, dass ein von uns definierter kombinierter Score, bestehend aus bildgebenden Biomarkern (Radiomics) und einem klinischen Score (m- HAP-II-Score), eine Prognose zum Gesamtüberleben nach der ersten TACE- Behandlung liefern kann. Mit Hilfe dieses kombinierten Scores war es in unserer Studienkohorte möglich abzuschätzen, ob ein Patient von weiteren TACE-Prozeduren profitieren würde. Der Behandlungsalgorithmus könnte auf dieser Basis individuell angepasst werden.
Der kombinierte Score hätte somit nicht nur das Potenzial Nebenwirkungen zu verhindern und Kosten im System einzusparen, sondern ebenfalls den Patienten potentiell individuell effektiveren Therapiealternativen zuzuführen.
Nanoarzneimittel haben in den letzten Jahren in der Therapie verschiedener Erkrankungen immer mehr an Bedeutung gewonnen. Dadurch hat auch die Anzahl zugelassener Arzneimittel mit an Arzneistoffträgern wie Liposomen gebundenen Wirkstoffen zugenommen. Weil für die Zulassung, neben der Wirksamkeit und Unbedenklichkeit, auch die Qualität der neuen Arzneimittel gewährleistet sein muss, spielen die verschiedenen Eigenschaften der Arzneistoffträger eine wichtige Rolle in der Qualitätskontrolle. Neben der Partikelgröße, der Partikelgrößenverteilung und der Oberflächenladung spielt die (Rest-)Kristallinität des Wirkstoffs und die Wirkstofffreisetzung eine wesentliche Rolle für die erfolgreiche in vivo-Performance von Nanoarzneimitteln. Zur Bestimmung der Wirkstofffreisetzung aus kolloidalen Arzneistoffträgern wie Liposomen, Nanopartikeln oder Mizellen gibt es bis heute keine Standardmethoden. In der Forschung und der pharmazeutischen Industrie werden folglich verschiedene Methoden wie Filtration, Zentrifugation oder Dialyse verwendet, um den freigesetzten Wirkstoff zu bestimmen. Dabei ist die Wahl der Separationsmethode auf die Eigenschaften der Arzneistoffträger abzustimmen.
In der vorliegenden Arbeit wurde eine dialysebasierte Apparatur, der Dispersion Releaser (DR), zur Untersuchung der in vitro Wirkstofffreisetzung aus kolloidalen Trägersystemen eingesetzt. Diese kann direkt mit den Apparaturen I/II der Arzneibücher der Europäischen Union (Ph. Eur.) und der Vereinigten Staaten (USP) gekoppelt werden. Zur Untersuchung der Wirkstofffreisetzung wird die Formulierung in das Donorkompartiment gegeben, sodass der freigesetzte Wirkstoff infolge über die Dialysemembran in das Akzeptorkompartiment permeiert. Dort kann dieser mittels HPLC analysiert werden. Besonders hervorzuheben ist das synchrone Rühren in beiden Kompartimenten des DR, worüber andere dialysebasierte Apparaturen nicht verfügen.
Die Entwicklung und Patentierung eines funktionsfähigen Prototyps des DR erfolgte an der Goethe Universität, Frankfurt am Main und wurde im Rahmen dieser Arbeit gemeinsam mit der Pharma Test Apparatebau AG (Hainburg, Deutschland) zu einer kommerziell erwerbbaren Apparatur (Pharma Test Dispersion Releaser, PTDR) weiterentwickelt. Innerhalb dieser Kollaboration wurde der Prototyp des DR unter Einbezug der Anforderungen der pharmazeutischen Industrie rekonstruiert. Eine erleichterte Anwendung für den Nutzer wurde dabei mitberücksichtigt.
Die finale Apparatur wurde zuletzt einer ausgiebigen Validierung unterzogen, bei der Diclofenac und Hydrocortison als Modellarzneistoffe dienten. Neben Untersuchungen zur Hydrodynamik und dem Einfluss der Umdrehungszahl auf die Membranpermeationsrate kM wurde eine Methode mit Gold-Nanopartikeln zur Bestimmung der Dichtigkeit des Systems entwickelt. Hierbei wurden Messungen mit einer UV/Vis-Methode und mit dynamischer Lichtstreuung durchgeführt, um die Abwesenheit der Goldpartikel im Akzeptorkompartiment nachzuweisen. Der Einfluss von Proteinen im Freisetzungsmedium auf die Membran-permeation wurde ebenfalls untersucht.
Der DR wurde ursprünglich zur Untersuchung von parenteralen Nanoformulierungen entwickelt. Aufgrund der bisher noch nicht erfolgten Untersuchung von halbfesten Zubereitungen im DR, wurde die Apparatur im Rahmen dieser Forschungsarbeit für zwei verschiedene Diclofenac-Gele (Voltaren® Emulgel, Olfen® Gel) unter verschiedenen Bedingungen evaluiert. Dabei konnte unter non-sink-Bedingungen der Einfluss der lipophilen Phase des Voltaren® Emulgels (GlaxoSmithKline Consumer Healthcare GmbH & Co. KG, München, Deutschland) gezeigt werden. Im Vergleich zum fettfreien Olfen® Gel (Mepha Pharma AG, Basel, Schweiz) zeigte Voltaren® Emulgel eine vollständige Freisetzung unter den erschwerten Löslichkeitsbedingungen.
Mit Hydrocortison als Modellsubstanz wurden vier verschiedene Proliposomen zur vaginalen An¬wendung formuliert. Neben der Charakterisierung der Partikelgröße und der Verkapselungs¬effizienz wurden Messungen mit dynamischer Differenzkalorimetrie durch-geführt und Aufnahmen zur morphologischen Charakterisierung mittels Transmissions-elektronen¬mikroskopie der Liposomen erstellt. Die Wirkstofffreisetzung des Hydrocortisons aus dem rekonstituierten liposomalen Gel sowie die Permeabilität über eine Zellmonoschicht wurde vergleichend untersucht. Dabei wurden Zelllinien aus humanem Cervixkarzinom beziehungsweise Endometriumkarzinom eingesetzt. Die Unterschiede der Formulierungen konnten vom DR sensitiver erfasst werden und die Verkapselungseffizienz als relevanter Faktor für die in vivo-Performance festgelegt werden.
Weil die tatsächliche Wirkstofffreisetzung durch die Permeation über die Dialysemembran überlagert werden kann, wurde neben der Standardisierung der Konstruktion die Auswertung mit Hilfe eines neuen mathematischen Modells, das auf dem Fick’schen Diffusionsgesetz basiert, verbessert. Das Normalisieren des Freisetzungsprofils mit Hilfe des mathematischen Modells dient dazu, die tatsächliche Wirkstofffreisetzung zu berechnen und den Vergleich verschiedener Freisetzungen ohne den Einfluss der Membranpermeation zu ermöglichen. Im Zuge der Validierung des DR wurde das mathematische Modell ebenfalls erfolgreich validiert.
In der vorliegenden Forschungsarbeit wurde eine neue Konstruktion des DR für die kommerzielle Anwendung entwickelt und validiert. Nebenbei wurde der Auswerteprozess zur Berechnung der diffusionsbereinigten Wirkstofffreisetzung vereinheitlicht und validiert. Zuletzt wurde das Anwendungsgebiet des DR von parenteralen Nanoformulierungen auf halbfeste Arzneiformen erweitert.
Ausgangspunkt der Forschungsarbeit ist der Gebrauch von Gesten in mathematischen Interaktionen von Lernenden. Es wird untersucht, inwiefern Gesten Teil des mathematischen Aushandlungsprozesses sind. Damit ist die Rekonstruktion einer potentiell fachlichen Bedeutung des Gestengebrauchs beim Mathematiklernen das zentrale Forschungsanliegen.
Theoretisch gerahmt wird die Arbeit von Erkenntnissen aus der psychologisch-linguistischen Gestenforschung zur systematischen Beschreibung von Gestik im Zusammenspiel mit der gleichzeitig geäußerten Lautsprache (McNeill, 1992; Kendon, 2004). Es werden ebenso ausgewählte Forschungen zur Gestik beim Mathematiklernen beleuchtet (Arzarello, 2006; Wille, 2020; Kiesow, 2016). Die mathematikdidaktische Interaktionstheorie begründet den sozial-konstruktivistischen Lernbegriff (Krummheuer, 1992). Ausgewählte Aspekte der Semiotik nach C. S. Peirce bieten eine theoretische Fundierung des Zeichenbegriffs und des Kerns mathematischen Agierens, verstanden als diagrammatisches Arbeiten (Peirce, 1931, CP 1.54 u. 1932, CP 2.228).
Von besonderer Bedeutung für die vorliegende Forschungsarbeit ist der linguistische Ansatz der Code-Integration und -Manifestation von redebegleitenden Gesten im Sprachsystem nach Fricke (2007, 2012) in Verbindung mit dem Peirce’schen Diagrammbegriff. Diese Perspektive ermöglicht eine theoretische Fundierung der zunächst empirisch beobachtbaren Multimodalität der Ausdrucksweisen von Lernenden beim gemeinsamen Mathematiktreiben. Der Peirce’sche Diagrammbegriff dient hierbei zur Rekonstruktion einer systemischen Relevanz von Gesten für das Betreiben von Mathematik: Bestimmte Gesten sind semiotisch als mathematische Zeichen beschreibbar und haben potentiell konstituierende Funktion für das diagrammatische Arbeiten der Lernenden. Der übergeordnete Forschungsfokus lautet: Wie nutzen Grundschüler*innen Gestik und Lautsprache, insbesondere in deren Zusammenspiel, um ihre mathematischen Ideen in den interaktiven Aushandlungsprozess einzubringen und über den Verlauf der Interaktion aufzugreifen, möglicherweise weiterzuentwickeln oder auch zu verwerfen? In der Ausdifferenzierung wird die Funktion der verwendeten Gesten und die Rekonstruktion von potentiell gemeinsam gebrauchten Gesten der Interagierenden in den Blick genommen.
Methodisch lässt sich die Forschungsarbeit der qualitativen Sozialforschung (Bohnsack, 2008) bzw. der interpretativen mathematikdidaktischen Unterrichtsforschung zuordnen (Krummheuer & Naujok, 1999). Es werden Beispiele aus mathematischen Interaktionssituationen ausgewertet, in denen sich Paare von Zweitklässler*innen mit einem mathematischen Problem aus der Kombinatorik und der Geometrie beschäftigen. Eine eigens theoriekonform entwickelte Transkriptpartitur dient zur Aufarbeitung der Videodaten. Mit der textbasierten Interaktionsanalyse (Krummheuer, 1992) und der grafisch angelegten Semiotischen Analyse (Schreiber, 2010) in einer Weiterentwicklung der Semiotischen Prozess-Karten (Huth, 2014) werden zwei hierarchisch aufeinander aufbauende Analyseverfahren verwendet.
Zentrale Forschungsergebnisse sind 1) die funktionale und gestalterische Flexibilität des Gestengebrauchs beim diagrammatischen Arbeiten der Lernenden, 2) die Rekonstruktion von Modusschnittstellen der Gesten mit anderen Ausdrucksmodi in Funktion, interaktionaler Bedeutungszuschreibung und Chronologie, und 3) die häufige Verwendung der Gesten als Modus der Wahl der Lernenden in mathematischen Interaktionen. Gesten weisen eine unmittelbare und voraussetzungslose Verfügbarkeit auf, eine funktionale und gestalterische Flexibilität in der mathematischen Auseinandersetzung und die Möglichkeit, Funktionen anderer Modi (vorübergehen) zu übernehmen. Es zeigt sich eine konstitutive und fachliche Bedeutung der Gestik für das mathematisch-diagrammatische Agieren der Lernenden. In der Arbeit wird daraus schließlich das doppelte Kontinuum der Gesten für das Mathematiklernen entwickelt. Es zeigt in der Dimension der Funktion des Gestengebrauchs und der Dimension des Objektbezugs der Gestengestalt die Vielfältigkeit der Gestenfunktionen im gemeinsamen diagrammatischen Arbeiten der Lernenden und gibt Einblick in die verwendeten Gestengestalten.
Die Forschungsarbeit offenbart den Bedarf einer Beachtung von Gesten in der fachdidaktischen Planung und Gestaltung von Mathematikunterricht und in der Erforschung und Diagnostik der mathematischen Entwicklung von Lernenden. Es handelt sich bei Gesten in mathematischen Interaktionen nicht um ein reines Beiwerk der Äußerung, sondern um einen fachlich bedeutsamen Modus in Bezug auf das Mathematiklernen. Der Gebrauch von Gestik ermöglicht die Erzeugung von Diagrammen im Handumdrehen und eröffnet perspektivisch eine Erforschung ihrer Bedeutung für mathematische Lehr-Lern-Prozesse.
Die in dieser Zusammenfassung angegebene Literatur findet sich im Literaturverzeichnis der vorgelegten Forschungsarbeit.
Die Organisation SOS Children's Villages (im Folgenden: SOS) ist eine der größten und ältesten nicht-staatlichen, überkonfessionellen Kinderhilfsorganisationen der Welt. Heute sind mehrere Generationen in Einrichtungen der in 136 Ländern tätigen Organisation aufgewachsen oder haben von ihren Hilfsprogrammen profitiert. Seit der Gründung im Jahr 1949 liegt der Schwerpunkt auf "Kindern und Jugendlichen, die keine elterliche Fürsorge haben oder Gefahr laufen, diese zu verlieren". Trotz der langjährigen weltweiten Präsenz haben sich bisher nur wenige ethnologische Arbeiten mit der Organisation SOS, ihrem Modell und vor allem ihren Teilnehmern beschäftigt.
Die vorliegende Arbeit will diese Lücke schließen. Sie zeigt anhand exemplarischer, biographisch-narrativer Interviews und auf einer multi-sited ethnography basierenden Analysen, wie einzelne Akteure im SOS-Kontext ihrer Vergangenheit begegnen, wie sie Erfahrungen - aus der Zeit unter der Obhut von SOS, aber auch aus der Zeit davor - einordnen und wie diese ihre Gegenwart und auch Zukunft beeinflussen bzw. wie sie heute mit diesen Erinnerungen umgehen. Ziel dieser Arbeit ist es außerdem, am Beispiel von SOS als Entwicklungszusammenarbeit (EZ) im Bereich Kinder, Jugend und Familie zu untersuchen, wie sich EZ-Projekte auf das Leben, die Sichtweisen und Biografien verschiedener Akteure sowie auf bestimmte lokale Zusammenhänge auswirken und wie wiederum Handlungen und individuelle Einstellungen von Akteuren sowie bestimmte lokale Kontexte solche Projekte beeinflussen.
Hierfür habe ich über einen Zeitraum von elf Monaten zwischen Juni 2019 und Mai 2020 an vier Standorten der Organisation in Kenia und Tansania rund 150 Interviews mit verschiedenen Zielgruppen (mit SOS-Mitarbeitern, ehemaligen SOS-Teilnehmern, aktuellen SOS-Teilnehmern sowie Gemeindevertretern) geführt.
Die Studie liefert also Ergebnisse auf mehreren Ebenen. Zusammenfassend lässt sich sagen, dass die Akteure meiner Untersuchung ihrer Vergangenheit und den Erinnerungen daran im Erwachsenenalter durch Aneignungsprozesse begegnen, die es ihnen ermöglichen, diese Erinnerungen und Erfahrungen kohärent in ihre eigene Biografie einzuordnen. Dieser Umgang mit der eigenen Geschichte ermöglicht es den ehemaligen SOS-Teilnehmern, sich die Struktur, die ihrer Kindheit zugrunde lag, nämlich die der internationalen Hilfsorganisation SOS, anzueignen und darüber Handlungen und Verhaltensweisen auch in ihrer Gegenwart und Zukunft zu definieren und zu legitimieren, und SOS als Zentrum ihrer Kindheit auch im Erwachsenenalter auf unterschiedliche Weise in Besitz zu nehmen. Dabei erfüllen sie nicht immer die Erwartungen, die von organisatorischer Seite an ihr Verhalten oder ihre Interpretation von Organisationskonzepten und -prinzipien gestellt werden. Da durch das Organisationsmodell evozierte Probleme wie fehlende Zugehörigkeiten oder Schwierigkeiten beim Übergang in die Selbstständigkeit durch lebensweltliche Diskrepanzen im Vergleich zu lokalen Kontexten über die Lebenswege und Erfahrungen der (ehemaligen) Teilnehmer sichtbar werden, schreibe ich nicht zuletzt den Teilnehmern und ihrem Umgang mit diesen Erfahrungen einen Anteil an den Transformationsprozessen zu, in denen sich die Organisation aktuell befindet.
Das schnelle und unkontrollierte Wachstum von Tumorzellen bedingt beim Glioblastom ein heterogenes Tumormikromilieu, mit lokalem Sauerstoff- und Nährstoffmangel. Lokaler Selektionsdruck bedingt eine Evolution besonders anpassungsfähiger Klone. Die integrierte Stressantwort (integrated stress response, ISR) ist ein zelluläres Programm, das durch zahlreiche Stressoren, wie endoplasmatische Retikulum Stress (ER-Stress), durch die Akkumulation ungefalteter Proteine, Hypoxie, Glukose- oder Aminosäuremangel aktiviert wird. Ein zentraler Schritt zur Aktivierung der ISR ist die Phosphorylierung der alpha Untereinheit des eukaryotischen Translationsinitiationsfaktors 2 (eIF2α) an Serin 51. Die Phosphorylierung von eIF2α führt zur Modulation der Translation mit Induktion des Transkriptionsfaktors ATF4 (Activating Transcription Factor 4), der dann zelluläre Anpassungsvorgänge einleitet.
Unsere Hypothese lautete, dass ATF4-vermittelte molekulare Anpassungsmechanismen menschlicher Glioblastom (GB)-Zellen an die Bedingungen der Tumormikroumgebung (wie z.B. Hypoxie und Nährstoffentzug) maßgeblich zur Therapieresistenz beitragen und auch die Empfindlichkeit gegen TMZ-Chemotherapie beeinflussen. Somit könnte eine Inhibition der integrierten Stressantwort über den zentralen Mediator ATF4 zu einem gesteigerten Ansprechen auf Therapiebedingungen führen.
Um die ISR und ATF4 als mögliche therapeutische Angriffspunkte im Glioblastom zu evaluieren, wurde die ATF4 Induktion in Glioblastomzellen pharmakologisch und genetisch moduliert und im Zusammenhang mit TMZ-Behandlung sowie Glukose- und Sauerstoffentzug untersucht. Unter Glutaminentzug, Hypoxie und TMZ-Behandlung, welche Aspekte der GB-Mikroumgebung widerspiegeln, zeigten sich erhöhte ATF4 Proteinspiegel. ATF4-gensupprimierte GB-Zellen (ATF4sh) exprimierten unter gleicher Behandlung wesentlich weniger ATF4.
Im Einklang mit der Hypothese, dass ATF4 zur Therapieresistenz humaner Glioblastomzellen beiträgt, waren ATF4-gensupprimierte GB-Zellen (ATF4sh) im Vergleich zur Kontrollzelllinie empfindlicher gegen Hypoxie-induzierten Zelltod und zeigten einen erhöhten Sauerstoffverbrauch. Umgekehrt zeigten GB-Zellen nach pharmakologischer ISR Induktion einen verminderten Sauerstoffverbrauch. Auch nach Behandlung mit TMZ war die Überlebensrate in ATF4sh Zellen im Vergleich zur Kontrollgruppe geringer. Zur Hemmung der ISR wurden verschiedenen Inhibitoren der Kinase PERK (Protein kinase R-like endoplasmic reticulum kinase) entwickelt. In unseren Untersuchungen war nach der Behandlung der GB-Zelllinien eine verminderte ATF4 Expression festzustellen. Dabei kam es allerdings gleichzeitig bei der Behandlung mit höheren Inhibitorkonzentrationen zu einer Induktion von ATF4. Für den PERK-Inhibitor GSK 414 wurde in der Literatur auch die Hemmung anderer Kinasen wie KIT und RIPK1 gezeigt. Daher konnte bei den Konzentrationen, die für eine vollständige PERK-Inhibition erforderlich waren, keine selektive Hemmung von PERK mehr gewährleistet werden. Besonders aufgrund ihrer Toxizität auf die Funktion des Pankreas eignen sich diese Inhibitoren nicht für eine in vivo Erprobung. Da aber durch die Inhibition der ISR eine neuroprotektive Wirkung beschrieben ist, besteht die Notwendigkeit, weitere Inhibitoren zur Hemmung der ISR zu entwickeln. ISRIB (Integrated Stress Response Inhibitor) ist ein partieller ISR Inhibitor, der eIF2B angreift, was als Guanidin-Nukleotid-Austauschfaktor im Translationsinitiationsprozess benötigt wird. Für ISRIB wurde bereits in vitro und in vivo eine neuroprotektive, aber keine toxische Wirkung beschrieben.
Zusammenfassend lieferten unsere Untersuchungen Hinweise auf die wichtige Rolle von ATF4 für die Anpassung humaner GB-Zellen an Bedingungen der Tumormikroumgebung und für die Entstehung von TMZ-Resistenzen. Die Hemmung der ISR in GB-Zellen könnte daher ein vielversprechender Therapieansatz sein.
Hintergrund: Die Aortenklappenstenose stellt in Europa und Nordamerika das häufigste Klappenvitium dar und ist vor allem auf eine degenerative Genese zurückzuführen. Da das Auftreten erster Symptome mit einer schlechten Prognose assoziiert ist, ist die transfemorale Aortenklappenimplantation mittels Katheter (TAVI) als minimalinvasive Therapie schon seit längerem eine Alternative zum operativen Ersatz der Aortenklappe und aktuelles Thema der Forschung. Zwar existiert eine Vielzahl an Transkatheterklappen und es werden fortlaufend neue Generationen entwickelt, allerdings liegt bislang noch keine Studie vor, die einen direkten Vergleich der intraannularen Portico-Prothese (Abbott) mit der ebenfalls selbstexpandierbaren, aber supraannularen, Symetis-Prothese (Boston Scientific) präsentiert.
Methoden: Es erfolgte eine retrospektive Analyse von 142 gematchten (nach Alter, BMI, NYHA-Klasse, EuroScore, insulinpflichtiger Diabetes Mellitus, arterielle Hypertonie, COPD, KHK, präinterventionelle eGFR, cAVK, Schlaganfall, TIA in der Vorgeschichte) Patienten je Klappenmodell im medianen Alter von 83 Jahren, die sich mit einer hochgradigen symptomatischen Aortenklappenstenose im Zeitraum vom 12.10.2015 bis zum 07.01.2020 einer transfemoralen TAVI im Universitätsklinikum in Frankfurt am Main unterzogen. Untersucht wurde als primärer Endpunkt die Gesamtmortalität nach 1 Jahr. Darüber hinaus wurden mittels multivariater Cox-Regression unabhängige Risikofaktoren identifiziert. Als sekundäre Endpunkte wurden Komplikationen innerhalb von 30 Tagen gemäß den Definitionen des Valve Academic Research Consortium (VARC) 2 gewählt wie die Implantationen neuer Schrittmacher, paravalvuläre Leckage, Gefäßkomplikationen und akutes Nierenversagen. Analysiert wurden außerdem prozedurale Faktoren, die Symptomatik anhand der NYHA-Klasse sowie einige Laborparameter vor und nach der TAVI.
Ergebnisse: In dieser Arbeit konnte gezeigt werden, dass die 1-Jahres-Mortalität mit der Portico-Prothese signifikant höher ist als mit der Symetis-Prothese (25,2% vs. 12,2%; p=0,011). Dabei gelten neben der Portico-Prothese eine reduzierte linksventrikuläre Funktion und die NYHA-Klassen III/IV gemäß multivariater Cox-Regressionsanalyse als unabhängige Risikofaktoren. Postinterventionell war in der Portico-Kohorte ein neuer Linksschenkelblock (34,5% vs. 23,2%; p=0,036), die Implantation neuer Schrittmacher (22,6% vs. 11,8%; p=0,011) sowie ein akutes Nierenversagen (25,5% vs. 12,8%; p=0,006) signifikant häufiger. Hinsichtlich prozedurbezogener Faktoren hat sich herausgestellt, dass mit der Symetis-Prothese häufiger nachdilatiert (41,5% vs. 25,3%; p=0,004), mit der Portico-Prothese hingegen häufiger vordilatiert (92,2% vs. 82,3%; p=0,012) wurde. Außerdem wurde in der Portico-Kohorte signifikant mehr Kontrastmittel eingesetzt und das Verfahren mit der Durchleuchtung dauerte signifikant länger. Echokardiographisch resultierte post TAVI mit der Symetis-Prothese eine signifikant andere bzw. günstigere Verteilung der Aortenklappeninsuffizienzgrade. Laborchemisch war der Wert für NT-proBNP als biochemischer Marker für eine Herzinsuffizienz signifikant höher als in der Symetis-Gruppe.
Schlussfolgerung: Diese Arbeit zeigte eine signifikant höhere Mortalität nach 1 Jahr mit der Portico-Prothese im direkten Vergleich mit der Symetis-Prothese. Außerdem ergab der Vergleich signifikant höhere Komplikationsraten in der Portico-Kohorte hinsichtlich Schrittmacherimplantationen, neuem Linksschenkelblock und akutem Nierenversagen. Weitere Studien sollten die beiden Prothesen im längerfristigen Verlauf vergleichend analysieren. Die Ergebnisse dieser Studie können zur Optimierung neuer Klappengenerationen beitragen, indem sie auf potenziell prognosebestimmende Aspekte des Designs und der Implantationstechnik aufmerksam machen. Außerdem sensibilisert die Studie für eine individuell für jeden Patienten angepasste Prothesenauswahl. Möglicherweise sollte bei Vorerkrankungen der Niere oder bei vorbekannten Herzleitungsstörungen die Symetis- gegenüber der Portico-Prothese vorgezogen werden.
Resistenzen gegenüber Carbapenemen sind eine Bedrohung für die globale Gesundheit mit wenigen verbleibenden Therapieoptionen. Ceftazidim/Avibavtam (CZA) ist die Kombination aus einem Cephalosporin und einem Diazabicyclooctan, mit der Eigenschaft eine Vielzahl von Carbapenemasen der Ambler Klasse A und D zu inhibieren. Resistenzen gegenüber Carbapenemen in gramnegativen Bakterien sind in Kolumbien und anderen Ländern Lateinamerikas weit verbreitet. In den hier vorgestellten Arbeiten wurden 2.235 Enterobakterien und 492 P. aeruginosa Isolate aus fünf Lateinamerikanischen Ländern auf ihre Empfindlichkeit gegenüber CZA und anderen klinisch verfügbaren Antibiotika untersucht. Die CZA-resistenten Isolate wurden mittels PCR und Genomsequenzierung auf die zugrundeliegenden Resistenzmechanismen hin analysiert. CZA zeigte Aktivitäten gegenüber 99,2% (2.217/2.235) aller untersuchten Enterobacterales und 77,8% (383/492) aller P. aeruginosa Isolate. Als plausible Erklärung für die Resistenz gegen CZA konnte mittels qPCR bei allen Enterobakterien und bei 38,5% (42/109) der P. aeruginosa Isolate ein Metallo-β-Laktamase (MBL)-kodierendes Gen nachgewiesen werden. Die verbleibenden P. aeruginosa Isolate wurden einer Genomsequenzierung unterzogen, dabei zeigten sich Mutationen in Genen, die zuvor mit einer verringerten Empfindlichkeit gegen CZA assoziiert wurden, wie z.B. Genen die mit der Überexpression von MexAB-OprM und AmpC (PDC) in Verbindung stehen, sowie Genen, die PoxB (blaOXA-50-like), FtsI (PBP3), DacB (PBP4) und OprD kodieren. Unsere Ergebnisse unterstreichen die Notwendigkeit von Therapieoptionen gegenüber MBL-produzierenden und anderen Carbapenem-resistenten Mikroorganismen. Des Weiteren sind diese Studien eine Momentaufnahme der Empfindlichkeit gegen CZA vor dessen Verfügbarkeit in Lateinamerika und dienen deswegen als Ausgangspunkt um die Entwicklung von Resistenzen in dieser Region zu verfolgen.
Hintergrund: Der Hypoparathyreoidismus (Hypopara) ist neben der Recurrensparese eine typische postoperative Komplikation nach Thyreoidektomie. Ziel dieser Arbeit soll die Prozessoptimierung des postoperativen Managements sein, um einen p.o. Hypopara frühzeitig zu erkennen und zu therapieren und somit die klinischen Symptome zu lindern oder zu vermeiden.
Methoden: Es wurden alle Patienten mit einer beidseitigen Schilddrüsenresektion eingeschlossen. Ausschlusskriterien waren simultane Nebenschilddrüsen- erkrankungen sowie fortgeschrittene Schilddrüsenmalignome mit geplantem Tumordebulking und/oder langem ITS-Aufenthalt. Postoperativ wurden Parathormon (EDTA) sowie Kalzium (Serum) bestimmt. Bei einem Parathormon (PTH) - Wert unter dem Referenzbereich (15,0-68,3 pg/ml) und/oder einer ausgeprägten Hypokalzämie mit einem Kalziumwert < 1,9 (Ref. 2,20-2,65 mmol/l) und/oder klinischen Zeichen wie Kribbelparästhesien oder Tetanie wurde Kalzium und Vitamin D mittels festem Schema verordnet. Die Symptombesserung wurde klinisch dokumentiert.
Ergebnisse: Am AGAPLESION Elisabethenstift gGmbH in Darmstadt wurden im Zeitraum zwischen Januar 2019 und Juni 2022 Schilddrüseneingriffe bei insgesamt 465 Patienten durchgeführt. Nach Berücksichtigung der Ein- und Ausschlusskriterien wurden 193 Patienten mit Thyreoidektomie in die Auswertung einbezogen. Ein p.o. Hypopara wurde bei 51 Patienten (26,4 %) festgestellt. Bei 40 Patienten (20,7 %) traten Symptome auf (39x Kribbelparästhesie, 1xTetanie). Von den 51 Patienten lag bei 26 (51 %) ein nur leicht erniedrigter Kalziumwert am 1. p.o. Tag vor (zwischen 2,00 und 2,20 mmol/l), bei 10 Patienten (19,6 %) war der Kalziumwert im Normbereich (2,20-2,65 mmol/l). Im Vergleich dazu lag bei 6 von 51 Patienten (11,8 %) ein normwertiger PTH-Wert vor. Bei 20 Patienten (10,4 %) erfolgte intraoperativ eine Nebenschilddrüsen-Replantation in den ipsilateralen M. sternocleidomastoideus. Davon trat bei 8 Patienten (40 %) ein Hypopara auf. Bei 29 Patienten (15 %) wurde in der Histologie ein akzidentiell mitentferntes Epithelkörperchen nachgewiesen. Davon trat bei 13 Patienten (44,8 %) ein Hypopara auf. Die mittlere Zeit nach OP zur PTH-Bestimmung lag bei 2,41 Tagen. Die mittlere Aufenthaltsdauer der Patienten mit Hypopara betrug 3,86 Tage (± 2,272), die der restlichen Patienten betrug 2,69 Tage (± 1,759), p < 0,001.
Schlussfolgerungen: Die PTH-Bestimmung ist neben der klinischen Visite essentiell zur Früherkennung eines p.o. Hypopara. Eine mehrtägige Kalziumbestimmung ist damit nicht zwingend erforderlich, sodass die Verweildauer verkürzt werden kann. Das verordnete Schema zur oralen Substitution von Kalzium und Vitamin D ist auch ambulant fortführbar. Die Replantation einer nicht erhaltbaren NSD hat bei 60 % einen Hypopara verhindert. Die gezielte Darstellung und Erhalt der NSD sollte bei jedem Eingriff eingehalten werden. Insgesamt zeigt diese Arbeit den höheren Stellenwert des postoperativen PTH-Wertes sowie der klinischen Zeichen als das Serumkalzium zur Erkennung und Therapie des Hypopara nach Thyreoidektomie.
Die kathetergestützte Thrombektomie ist, spätestens seitdem 2015 verschiedene Studien ihre Überlegenheit zur alleinigen medikamentösen Behandlung gezeigt haben, die bevorzugte Therapie bei Patienten mit akutem ischämi-schem Schlaganfall und embolischen Verschluss einer großen intrakraniellen Arterie. Obwohl die mechanische Thrombektomie mittlerweile zur Standardthe-rapie zählt, ist der Zusammenhang zwischen Lokalisation des Infarktareals und klinischem Behandlungsergebnis nach Thrombektomie bisher nicht gut untersucht. Die dieser Studie zugrunde liegende Hypothese war, dass Infarktdemar-kationen in der zentralen Corona radiata, Capsula interna und/oder den Ba-salganglien aufgrund einer potenziellen Schädigung der Fasern des Tractus corticospinalis mit einem schlechten Behandlungsergebnis (mRS 3 bis 6) nach mechanischer Thrombektomie assoziiert sind. Ziel dieser Studie war es somit, den Behandlungserfolg nach Thrombektomie bei Patienten mit entsprechender Infarktlokalisation zu untersuchen.
Hierfür wurden die Daten von 70 erwachsenen Patienten analysiert, die im Zeitraum von April 2016 bis Januar 2020 im Institut für Neuroradiologie des Universitätsklinikums Frankfurt aufgrund eines ischämischen Infarktes mit entsprechender Infarktdemarkation eine mechanische Thrombektomie erhalten haben. Alle erhobenen Daten stammen aus der elektronischen Krankenakte, dem Radiologie-Informations-System oder einem prospektiven Register zur internen Qualitätssicherung. Es erfolgte außerdem eine Unterteilung der Studi-enkohorte anhand des zusätzlichen kortikalen Infarktausmaßes bzw. der kortikalen Infarktlokalisation, um den Einfluss kortikaler Infarkte auf das Behandlungsergebnis beurteilen zu können. Die wichtigsten Endpunkte der Studie waren das klinische Behandlungsergebnis gemessen anhand der mRS nach 90 Tagen sowie die Ergebnisse der Subgruppenanalyse.
51,4 % der Studienpopulation erzielten nach 90 Tagen ein gutes klinische Be-handlungsergebnis (mRS 0 bis 2), 32,9 % der Patienten erreichten sogar ein exzellentes Ergebnis (mRS 0 bis 1). Insgesamt verstarben innerhalb von 90 Tagen nach dem Schlaganfallereignis 15,7 % aller Patienten und 32,9 % konn-ten nur ein schlechtes Behandlungsergebnis (mRS 3 bis 5) erzielen. Die Ergebnisse zeigen, dass die in der routinemäßig angefertigten Bildgebung nachgewiesenen Infarktdemarkationen im Verlauf der langen Bahnen nicht zwingend ein schlechtes Behandlungsergebnis bedingen. Bei Patienten mit ausge-dehnter Beteiligung des Kortex und Infarkten in definierten eloquenten Arealen waren die klinischen Behandlungsergebnisse allerdings schlechter als in der Vergleichsgruppe mit isolierten Läsionen der langen Bahnen.
Um künftig ein besseres Verständnis darüber zu erlangen, welche Patienten mit bestimmter Infarktlokalisation von einer mechanischen Thrombektomie langfristig profitieren können, sind weitere prospektive Studien mit exakt definierten Vergleichsgruppen und höherwertiger MRT-basierter Bildgebung erforderlich.
Einleitung: Frailty (engl. für Gebrechlichkeit) bezeichnet eine mit hohem Alter zunehmende Verschlechterung des körperlichen und kognitiven Zustandes von Individuen, woraufhin der Körper nicht mehr in der Lage ist, adäquat auf äußere und innere Stressoren zu reagieren. Frailty ist mit einer erhöhten Morbiditäts- und Mortalitätsrate sowie längerer Krankenhausverweildauer und erhöhter postoperativer Komplikationsrate verbunden und stellt folglich einen chirurgischen Risikofaktor dar.
Problemstellung: Die Relevanz eines strukturierten Frailty Assessments in der präoperativen Risikostratifizierung führte zur Indikationsstellung, diverse validierte Risk Assessment Tools auf ihre prädiktive Vorhersagekraft bezüglich des Auftretens von postoperativen Komplikationen und postoperativer Sterbewahrscheinlichkeit zu untersuchen.
Methoden: In die vorliegende Studie wurden Patienten, die in dem Zeitraum vom 01.09.2018 und 31.01.2019 in der allgemeinchirurgischen Ambulanz vorstellig waren und einen allgemeinchirurgischen Eingriff erhielten, aufgenommen. Mittels Fragebögen wurden die Scores „Risk Analysis Index“, „Edmonton Frail Scale“ sowie „Charlson Comorbidity Index“ präoperativ erhoben und retrospektiv mit Daten aus der digitalen Patientenakte zusammengeführt. Endpunkte waren die 90-Tages- Mortalität sowie das Auftreten von schweren postoperativen Komplikationen ab Clavien Dindo Grad 3b. Die Analyse erfolgte in SPSS mittels Chi-Quadrat Test, t- Test und ROC-Kurven Analysen.
Ergebnisse: Das durchschnittliche Alter der Studienkohorte lag bei 56 ± 15.9 Jahren und der Anteil männlicher Patienten überwog mit 59.2% (n=282).
Die Fragebögen wurden 739 Patienten vorlegt und 476 Patienten konnten in die Datenanalyse eingeschlossen werden. Die 90-Tages-Mortalität lag bei 2.7% (n=13) und 9% (n=43) erlitten schwere postoperative Komplikationen ab Clavien-Dindo Grad IIIb. Die Einteilung nach der ASA-Klassifikation (p=0.024), maligne Diagnosen -7-(p<0.001) und Majorkomplikationen (p<0.001) stellten präoperative Risikofaktoren für postoperative 90-Tage-Mortalität dar. Von den Risk Assessment Scores zeigte lediglich der Risk Analysis Index eine signifikante Korrelation auf (p=0.013). Ein mittels ROC-Analyse ermittelter Cut-Off Wert von 23 klassifizierte 166 (34.9%) Patienten als frail, die mit 69% Sensitivität und 66% Spezifität (AUC=0.735) ein erhöhtes Risiko für postoperatives Versterben innerhalb von 90 Tagen aufwiesen (p=0.008). Risikofaktoren für das Auftreten schwerer postoperativer Komplikationen waren die ASA-Klassifikation (p=0.041), längere Krankenhausverweildauer (p<0.001) und maligne Diagnosen (p<0.001). Der Charlson Comorbidity Index (p=0.031) und RAI-C Werte ≥ 23 (p<0.001) korrelierten signifikant mit Majorkomplikationen. Das Alter ab 65 Jahren stellte mit 77 % Spezifität und 69 % Sensitivität ebenfalls einen prädiktiven Risikofaktor für postoperative Mortalität dar (AUC=0,787).
Schlussfolgerung: Mithilfe validierter Risk Assessment Tools ist es möglich Patienten, die ein erhöhtes Risiko für postoperative negative Ereignisse aufweisen, bereits präoperativ zu erkennen. Dies ermöglicht eine bessere Beurteilung der chirurgischen Indikationsstellung sowie das rechtzeitige Ergreifen von risikominimierenden Maßnahmen. Es ist notwendig die Ergebnisse dieser Arbeit künftig mit risikominimierenden Maßnahmen zu verknüpfen und zu untersuchen, ob die Implementierung der Risk Assessment Tools zu verbesserten postoperativen Ergebnissen führt, wenn modifizierbare Faktoren verbessert werden.
In den letzten Jahren haben sich die Therapiemöglichkeiten des Mammakarzinoms deutlich verbessert. Durch die Analyse von genetischen Veränderungen in den Tumorzellen oder in der Keimbahn ist eine zielgerichtete Tumortherapie bei einigen Subgruppen möglich; z.B. mit PARP- und PIK3CA-Inhibitoren.
In einer retrospektiven Analyse wurde in dieser Arbeit untersucht, wie genetische Mutationsanalysen in einer onkologischen Schwerpunktpraxis eingesetzt werden. Es sollte untersucht werden, wie häufig PatientInnen in einer onkologischen Praxis mit metastasiertem Mammakarzinom eine Mutationsanalyse brustkrebsassoziierter Gene erhalten haben, und welche Konsequenzen daraus gezogen wurden. Dabei wurde der Zeitraum von 2019 – 2022 betrachtet. Mithilfe der Software Albis wurden Daten von 49 PatientInnen identifiziert. 40 PatientInnen haben eine Keimbahndiagnostik der Gene BRCA1/2 erhalten. Von den PatientInnen, die die BRCA1/2-Analyse bekommen haben, konnten in 20% der PatientInnen eine Mutation in BRCA1 oder 2 detektiert werden. Bei den meisten dieser PatientInnen wurde der PARP Inhibitor Olaparib therapeutisch eingesetzt. 10 PatientInnen erhielten eine PIK3CA-Analyse, 9 von ihnen mittels PCR und eine mittels NGS. In dieser Gruppe wurde bei einer Patientin eine Mutation im PIK3CA-Gen ermittelt. 15 PatientInnen haben eine Multigenpanel-Diagnostik erhalten. Dabei ist eine Reihe weiterer genetischer Veränderungen nachgewiesen worden. Für einige dieser Veränderungen stehen therapeutische Möglichkeiten zur Verfügung, die zwar nicht für das Mammakarzinom, aber für andere Tumorentitäten bereits zugelassen sind.
Das periinterventionelle Management von antikoagulierten Patienten stellt eine große Herausforderung im klinischen Alltag dar. Die genaue Abwägung von Blutungs- und Thromboembolierisiko ist essentieller Bestandteil der Frage, ob und wann die blutgerinnungshemmende Medikation pausiert werden soll. Ist das Zeitintervall zur geplanten Intervention zu kurz gewählt und daher die antikoagulierende Wirkung der Arzneimittel noch ausgeprägt, kann es leichter zu intra- und postoperativen Blutungen kommen. Umgekehrt kann es bei einer zu langen Unterbrechung der Antikoagulation zur Entwicklung von Thromboembolien kommen. Um diese Risiken zu minimieren und die Patientensicherheit zu verbessern ist ein leitliniengerechtes Handeln von großer Bedeutung. Durch den Einfluss des demographischen Wandels und die steigende Inzidenz der Erkrankungen, die eine Antikoagulation notwendig machen, erhöht sich ebenso die Anzahl der antikoagulierten Patienten, die sich einer elektiven Operation unterziehen müssen, wodurch das Thema schon seit Jahren an Bedeutung gewinnt. Trotz diverser Leitlinien, die in den letzten Jahren publiziert wurden, findet man im klinischen Alltag oftmals nicht auf Anhieb die passende Empfehlung, da diese von dem Einfluss etlicher Risikofaktoren, wie Alter, Geschlecht, Nierenfunktion u.a. bestimmt werden sollte. Der Einsatz eines Clinic Decision Support Systems (CDSS) kann ein leitliniengerechtes Handeln möglicherweise verbessern, indem patientenspezifische Risikokonstellationen anhand europäischer Leitlinien geprüft werden und dem Nutzer eine optimale Vorgehensweise unterbreitet wird.
Zielsetzung: In dieser Arbeit, soll die Eignung eines klinischen Entscheidungs-Unterstützungssystems (CDSS) anhand eines Multiple Choice (MC) Tests mit 11 kliniknahen Fallbeispielen, bezüglich evidenzbasierten perioperativen Managements von antikoagulierten Patienten untersucht werden.
Methoden: Im Rahmen einer klinischen prospektiven randomisierten multizentrischen Simulationsstudie beantworteten Ärztinnen und Ärzte einen Multiple Choice Test bestehend aus 11 Fallbeispielen zum Thema periinterventionelles Management von antikoagulierten Patienten. Dabei sollte zu - 5 - jedem Beispiel zwei möglichst leitliniengerechte Empfehlung ausgewählt werden.
Die Ärztinnen und Ärzte wurden vorab in zwei Gruppen randomisiert. Der PERI-KOAG Gruppe wurde das CDSS zur Beantwortung der Fragen zur Verfügung gestellt. Die Kontroll-Gruppe hatte hingegen keinen Zugriff auf die Applikation und sollte den Test mit frei zugänglichen Hilfsmitteln, zum Beispiel Leitlinien oder anderen allgemein verfügbaren Apps beantworten. Die beiden Gruppen wurden anschließend in Bezug auf die Gesamtergebnisse, die Bearbeitungszeit und Berufserfahrung verglichen.
Ergebnisse: Insgesamt wurden 168 Teilnehmer in die beiden Gruppen randomisiert, wovon 76 Teilnehmer, 42 Teilnehmer der PERI-KOAG Gruppe und 34 Teilnehmer der Kontroll-Gruppe den MC-Test vollständig beendeten und in die weitere Auswertung eingeschlossen wurden. Der MC-Test konnte mit maximal 22 Punkten (=100%) abgeschlossen werden. Die PERI-KOAG Gruppe erreichte dabei im Durchschnitt signifikant bessere Ergebnisse als die Kontroll-Gruppe (82 ±15% vs. 70 ±10%; 18 ±3 vs. 15 ±2 Punkte; P =0,0003). Unter Berücksichtigung der Bearbeitungszeit erzielten Teilnehmer mit längerer Bearbeitung durchschnittlich höhere Ergebnisse, als Kollegen welche den Test schneller abschlossen. Dieser Effekt zeigte sich in beiden Gruppen. Ein signifikanter Unterschied konnte hierbei nur in der PERI-KOAG Gruppe gezeigt werden (PERI-KOAG Gruppe ≥33 min. 89 ±10% (20 ±2 Punkte) vs. <33 min. 73 ±15% (16 ±3 Punkte), P =0,0005). Innerhalb der PERI-KOAG Gruppe zeigten sich tendenziell höhere Ergebnisse innerhalb der erfahreneren Gruppe (>5 Jahre Berufserfahrung), aber keinen signifikanten Unterschied zu weniger (≤5 Jahre Berufserfahrung) erfahrenen Kollegen (87 ±10% (19 ±2 Punkte) vs. 78 ±17% (17 ±4 Punkte), P =0,08). Dagegen konnte in der Kontroll-Gruppe kein Unterschied zwischen den Testresultaten von mehr und weniger erfahrenen Teilnehmern gezeigt werden (>5 Jahre: 71 ±8% (16 ±2 Punkte) vs. ≤5 Jahre: 70 ±13% (15 ±3 Punkte) P =0,66).
Diskussion: Diese Arbeit zeigt, dass im Rahmen eines MC-Tests mit Hilfe des CDSS ein leitliniengerechtes perioperatives Management von antikoagulierten Patienten signifikant verbessert werden kann. Eine fachgerechte Anwendung des Tools ist essentiell, um schwerwiegende Folgen, wie Blutungen oder Thromboembolien zu vermeiden. Eine längere Bearbeitungszeit und mutmaßlich intensivere Nutzung des CDSS, geht mit besseren Ergebnissen einher als eine schnelle Testbearbeitung. Ein insgesamt verbessertes leitliniengerechtes Management zeigt, unabhängig von der Berufserfahrung der Teilnehmer, das große Potential des CDSS.
Hintergrund: Amblyopie ist nach Fehlsichtigkeit die häufigste Sehstörung bei Kindern. Sie ist eine wesentliche Ursache für eine lebenslange Minderung der bestkorrigierten Sehschärfe und ist meist unilateral. Eine Asymmetrie in der Qualität des visuellen Eindrucks während der sensiblen Phase führt in der Regel zu einer unzureichenden Entwicklung des binokularen Sehsystems. Die Standardtherapie der Amblyopie besteht aus optimaler optischer Korrektur vorhandener Brechungsfehler und der direkten Okklusion, wobei das funktionsbessere Auge zeitweise mit einem Augenpflaster abgedeckt wird. Bisherige Studien haben gezeigt, dass besonders bei Patienten mit tiefer Amblyopie, die Therapietreue oft mäßig ist. In einigen Fällen kann das amblyope Auge nicht mit der Foveola fixieren. Diese exzentrische Fixation beeinflusst den Therapieerfolg negativ. Unser Ziel war, bei dieser speziellen Patientengruppe die Okklusionsdauer objektiv zu registrieren und deren Auswirkung auf die Visusentwicklung und die Fixationsänderung in Abhängigkeit vom Alter über einen langen Zeitraum zu untersuchen.
Methoden: In unserer prospektiven multizentrischen Pilotstudie untersuchten wir amblyope Kinder mit exzentrischer Fixation im Alter von 3-16 Jahren während 12-monatiger Okklusionsbehandlung. Der Nahvisus wurde mittels Landoltringen und Lea-Symbolen (jeweils Reihenoptotypen) bestimmt. Die Okklusionsdauer wurde kontinuierlich mit einem TheraMon®-Mikrosensor aufgezeichnet, der am Augenpflaster angebracht wurde. Der Fixationsort am Augenhintergrund wurde mit einem direkten Ophthalmoskop bestimmt. Unsere Ziele waren: Evaluierung der Sehfunktion, Therapieadhärenz und Beurteilung des Fixationsortes des amblyopen Auges. Der Anteil des korrigierten Visusdefizits, die Dosis-Wirkungs-Beziehung und die Therapieeffizienz wurden berechnet.
Ergebnisse: In unserer Studie wurden 12 Patienten mit Schiel- und kombinierter Schiel- und Anisometropieamblyopie im Alter von 2,9-12,4 Jahren (im Mittel 6,5 ± 3,4 Jahre) untersucht. Der Anfangsvisus der amblyopen Augen nach 3 Monaten refraktiver Adaptationsphase lag im Mittel bei 1,4 ± 0,4 logMAR (Spannweite 0,9-2,0), und der 5 Führungsaugen bei 0,3 ± 0,3 logMAR (Spannweite -0,1-0,8). Die mittlere interokuläre Visusdifferenz (IOVAD, Visusunterschied zwischen dem amblyopen Auge und dem Führungsauge) zu Beginn betrug im Mittel 1,1 ± 0,4 log Einheiten (Spannweite 0,5-1,8). Die verschriebene Okklusionsdauer lag im Median bei 7,7 Stunden/Tag (Spannweite 6,6-9,9), die tatsächlich erreichte bei 5,2 Stunden/Tag (Spannweite 0,7-9,7). Nach 12 Monaten betrug die mediane Visusbesserung der amblyopen Augen 0,6 log Einheiten (Spannweite 0-1,6), die mediane IOVAD 0,3 log Einheiten (Spannweite 0-1,8). Multiple Regressionsanalyse mit Rückwärtselimination zeigte, dass sowohl das Alter (p=0,0002) als auch die Okklusionsdosis (p=0,046) signifikante Einflussfaktoren für den Visusanstieg waren. Kinder unter 4 Jahren zeigten das beste Ansprechen mit der niedrigsten Rest-IOVAD (Median 0,1 log Einheiten, Spannweite 0-0,3). Die Effizienzberechnung ergab eine Visusbesserung von etwa einer log Visusstufe pro 100 Stunden Okklusion in den ersten zwei Monaten und einer halben log Visusstufe nach 6 Monaten. Die Therapieeffizienz nahm mit zunehmendem Alter ab (p = 0,01). Trotz einer gewissen Visusbesserung auch bei Patienten im Alter von ≥8 Jahren (Median 0,4 log Einheiten), zeigten diese eine geringere Therapieadhärenz sowie -effizienz (mediane Rest-IOVAD 0,8 log Einheiten). Zentrale Fixation wurde von 9 Patienten nach im Median 3 Monaten erreicht (Spannweite 1-4 Monate). Drei Patienten (>6 Jahre) erreichten keine zentrale Fixation.
Schlussfolgerung: Amblyopie mit exzentrischer Fixation stellt auch bei guter Adhärenz eine Herausforderung für den Therapieerfolg dar. Unsere Studie zeigte erstmals prospektive quantitative Daten basierend auf elektronischer Erfassung der Okklusion bei dieser seltenen Patientengruppe. Es konnte die deutliche Abnahme der Therapieeffizienz mit zunehmendem Alter gezeigt werden. Die Visusbesserung wurde viel stärker vom Alter als von der Okklusionsdosis beeinflusst. Nur Kinder, die zum Okklusionsbeginn jünger als 4 Jahre waren, konnten im Studienzeitraum in ihren amblyopen Augen eine für ihr Alter annähernd normale Sehschärfe und eine IOVAD <0,2 log Einheiten erreichen. Demzufolge sind, trotz möglicher geringer Visusbesserung auch bei älteren Patienten, eine frühzeitige Diagnose und Therapie dieser Patientengruppe unerlässlich für den Therapieerfolg.
Förderung: bereitgestellt durch den Forschungspreis des Vereins „Augenstern e.V.“
In Deutschland existieren nur wenige Ergebnisse aus der klinischen Forschung, die im Kontext der allgemeinmedizinischen Versorgung gewonnen wurden. Dies ist u.a. damit zu begründen, dass Forschung in der Allgemeinmedizin in den Praxisalltag eingebunden sein muss, worauf die gegenwärtige Versorgungsstruktur nicht ausgelegt ist. Damit für Hausärztinnen und Hausärzte Forschung im Praxisalltag möglich ist, müssen also Strukturen geschaffen werden, die Forschung ermöglichen. Eine solche Struktur bieten Forschungspraxennetze (FPN) wie beispielsweise das Forschungspraxennetz „ForN“. ForN wurde vom Institut für Allgemeinmedizin der Goethe-Universität Frankfurt am Main im Jahr 2011 initiiert. In ForN tätige Forschungspraxen können sich mit einer Gültigkeit von fünf Jahren als „akademische Forschungspraxis“ akkreditieren lassen, wenn sie bestimmte Anforderungen erfüllen. Dazu gehört die Teilnahme an für Forschungsprojekte qualifizierenden Fortbildungen oder an Netz-begleitenden Treffen für Ärztinnen, Ärzte und Medizinische Fachangestellte (MFA) sowie die regelmäßige Teilnahme an Forschungsprojekten. Eine Verlängerung der Akkreditierung nach fünf Jahren ist möglich. Bisherige Publikationen über Forschung zu FPN bieten insbesondere Einblicke in Faktoren, welche den Beitritt in ein FPN fördern oder eher behindern. Forschung, die Faktoren der längerfristigen Mitwirkung der Praxen an FPN (wie Austrittsgründe, aber auch Motivation, eine Re-Akkreditierung anzustreben) untersucht, ist im Gegensatz dazu rar.
Diese Dissertation untersucht diese Faktoren anhand der folgenden Fragen: warum traten Forschungspraxen im Laufe der Zeit aus dem FPN ForN aus (ehemalige Mitglieder) und warum strebten andere eine Re-Akkreditierung an (aktive Mitglieder)? Weitere Unterfragen dieser Arbeit sind: welche Faktoren motivierten oder erschwerten hausärztlichen Teams eine Mitwirkung als Forschungspraxis? Wie wurde die bisherige Zusammenarbeit gesehen und als wie gut machbar wurden die Anforderungen zur Erlangung der Bezeichnung „akademische Forschungspraxis“ eingeschätzt?
Es wurde ein Fragebogen für ehemalige ärztliche ForN-Mitglieder entworfen und eingesetzt. Des Weiteren wurden Daten aus Fragebogenerhebungen von aktiven ForN-Mitgliedern (Hausärztinnen, Hausärzte, MFA) aufbereitetet. Die Daten wurden mithilfe der Datenanalysesoftware SPSS deskriptiv unter Angabe der Häufigkeiten, Mittelwerte, Standardabweichungen und Spannweiten ausgewertet.
Es konnten 14 Fragebögen von ehemaligen ärztlichen ForN-Mitgliedern aus 13 Praxen analysiert werden. Von den aktiven ForN-Mitgliedern wurden Fragebögen von 48 Ärztinnen und Ärzten sowie 57 MFA aus 41 Praxen ausgewertet. Als Gründe für den Austritt wurde von ehemaligen Mitgliedern insbesondere Zeitmangel und eine hohe Arbeitsbelastung angegeben. Weitere erschwerende Umstände waren ein Mangel an MFA, eine große Entfernung zum Standort des Instituts für Allgemeinmedizin und persönliche Gründe. Bis auf letztere Angabe waren dies auch die größten Hürden während der Teilnahme, die von aktiven Mitgliedern beschrieben wurden. Einen Beitrag für die Allgemeinmedizin zu leisten, persönliche Kompetenzen und Kompetenzen des Praxisteams zu erweitern sowie Abwechslung im Praxisalltag zu erleben, waren die wichtigsten motivierenden Faktoren einer Teilnahme im Forschungspraxennetz ForN, sowohl für aktive als auch für ehemalige Mitglieder. Die Anforderungen des FPN ForN an die Akkreditierung als Forschungspraxis wurden aus Perspektive der aktiven Mitglieder überwiegend als machbar empfunden. Nur die Umsetzung zusätzlicher, nicht verpflichtender Aktivitäten wurde als schwieriger erfüllbar bewertet. Bezüglich der Zusammenarbeit mit dem Institut für Allgemeinmedizin gaben ehemalige ärztliche ForN-Mitglieder an, eine gute Vorbereitung auf Forschungsaufgaben erfahren zu haben, dem ForN-Team des Instituts für Allgemeinmedizin vertrauen zu können und dass die Kommunikation allgemein gut war.
Gründe für den Austritt aus dem FPN und Hindernisse während der Teilnahme in ForN waren überwiegend externe Faktoren wie Zeitmangel, eine hohe Arbeitsbelastung oder ein Mangel an MFA. Auf diese Faktoren hat das Institut für Allgemeinmedizin keinen direkten Einfluss, es kann lediglich die administrativen Aufgaben innerhalb eines Forschungsprojektes für das Team einer Forschungspraxis so vorstrukturieren, dass sie möglichst gut im Praxisalltag bewältigt werden können. Ein Vergleich mit Publikationen, die sich mit förderlichen und hinderlichen Faktoren eines Beitritts in ein FPN auseinandersetzen, zeigt, dass ähnliche Gründe auch die längerfristige Mitwirkung beeinflussen.
Einfache elektrochemische Methode zur Bestimmung von Chlorit in wässrigen und nicht-wässrigen Systemen Stoffe bzw. Verbindungen, welche nachweislich krebserregend oder fruchtbarkeitsschädigend sind, werden seit Jahren, insbesondere durch die WHO, streng reguliert. Zu diesen Stoffen zählt u. a. Chlorit, welches als Abbauprodukt in Desinfektionsmitteln, Poolwassern und im Rahmen von organischen Oxidationsprozessen vorkommt. Im Rahmen des Projektes sollte eine elektrochemische Methode zu Detektion von Chlorit in wässrigen und organischen Proben entwickelt werden, wobei auf eine Glaskohlenstoffelektrode in Kombination mit Li [NTf]2 im Wässrigen und [Bmpyrr][NTf]2/MeOH im Organischen als Elektrolyten zurückgegriffen wurden.
Bei der Methodenentwicklung wurde auf Differentielle-Puls-Voltammetrie zurückgegriffen, da diese im Vergleich zum Cyclovoltammetrie deutlich empfindlicher ist. Die Methodenvalidierung nach ICH-Guidelines konnte erfolgreich durchgeführt werden Dabei konnte im Wässrigen eine Nachweisgrenze von 0.07 mg L-1 (Organisch: 0.20 mg L-1) erhalten werden. Beide lagen deutlich unter den WHO-Grenzwerten von 0.7 mg L-1. Die Selektivität/Interferenz wurde gegenüber den übrigen Chlor-Spezies getestet; für alle Spezies, außer Hypochlorit, konnten für die Wiederfindungsrate von Chlorit Werte nahe 100% erhalten werden. Die entwickelte Methode konnte erfolgreich auf wässrige (Poolproben, Desinfektionsmittel) und organische Proben (aus Pinnick-Synthesen) angewendet werden. Insbesondere durch die Anwendung im Bereich der Pinnick-Oxidation war der Sensor für mögliche In-Line-Analytik geeignet. Bei den organischen Proben konnte zudem die ionische Flüssigkeit zu 92% zurückgewonnen werden, was den Elektrolyten in Hinblick auf Nachhaltigkeit und Wirtschaftlichkeit noch attraktiver macht.
Entwicklung ionenchromatographischer Methoden zur Detektion von Chloroxo-Spezies
Der Bedarf an schnellen, kostengünstigen Analysemethoden, welche den Vorgaben der einzelnen Behörden weltweit entsprechen, ist in den letzten Jahren enorm gestiegen. Im Rahmen des Projektes sollte eine ionenchromatographische Methode (IC) entwickelt werden, welche neben den Chloroxo-Spezies (Chlorid, Hypochlorit, Chlorit, Chlorat und Perchlorat) auch die bekannten Standardionen (Fluorid, Bromid, Nitrat, Phosphat, Sulfat, Iodid) nachweisbar macht. Zunächst gelang es, die Methodenparameter zu optimieren und so die Chloro-Spezies, außer Hypochlorit, von den übrigen Standardanionen innerhalb von 50 Minuten vollständig zu trennen. Die Methode konnte in der weiteren Entwicklung sogar noch um die Detergenzien-Anionen Acetat, Formiat, Oxalat und Tartrat erweitert werden. (ASupp 7, 45 °C, 0.8 mL min-1, 6 mmol L-1 Na2CO3 / 1 mmol L-1 NaHCO3 + 10% Acetonitril). Auch alle notwendigen Validierungsparameter konnten erfolgreich bestimmt werden. Zuletzt war es möglich, erfolgreich unterschiedliche Realproben zu vermessen.
Da ein Nachweis von Hypochlorit mittels IC nicht möglich war, wurden weitere Anstrengung unternommen, dieses Anion mittels IC-PCR (Nachsäulenderivatisierung) nachzuweisen. Als Detektionsprinzip wurde dabei auf eine Bromat-Nachweis-Methode mittels UV/VIS zurückgegriffen, welche im Rahmen des Projektes angepasst wurde. Da davon ausgegangen werden muss, dass das Hypochlorit mit reaktiven Stellen innerhalb des Säulenmaterials reagiert und somit nicht mehr detektiert werden kann, wurden Passivierungsexperimente an der Vorsäule und Säule für 24 h mit einer Hypochlorit-NaOH-Mischung durchgeführt. Nach 60 Stunden Passivierung konnten erstmals reproduzierbare Ergebnisse bei dem Nachweis von OCl- erhalten werden. Zuletzt konnten erfolgreich fünf unterschiedliche Realproben vermessen und der Hypochlorit-Gehalt mit bisher angewandten Methoden verglichen werden, wobei die erhaltenen Werte in der gleichen Größenordnung lagen.
Entwicklung eines Sensors unter Verwendung der Viologen-Grundstruktur auf metallischen Oberflächen
Früher fanden Viologene und deren Derivate Anwendung im Bereich der Schädlingsbekämpfung und wurden hauptsächlich als Kontaktherbizid verwendet. Mittlerweile hat sich das Anwendungsspektrum der Viologene deutlich verändert, u.a. werden die in organischen Redox-Fluss-Batterien als Elektrolyte eingesetzt. Im Rahmen diesen Projekts wurden mehrere bekannte Viologen-Grundkörper (u. A. Methylviologen (MV)) vollständig elektrochemisch charakterisiert Im Anschluss wurde MV mit unterschiedlichen Ankergruppen (Thiol-, Sulfonat, -Phosphonat-, Carboxylanker) modifiziert und auf metallische Oberfläche (u. A. Gold und Kupfer) abgeschieden mit dem Ziel ein neues Sensor-Motiv für die Analytik zu entwickeln. Der Thiolanker konnte erfolgreich auf Gold, der Carboxylanker erfolgreich auf Kupfer abgeschieden werden. Die anschließenden elektrochemischen Untersuchungen der abgeschiedenen Monolagen ergaben jedoch eine geringe Stabilität der Anker in wässriger und organischer Umgebung, sodass in Zukunft weitere Anstrengungen unternommen werden müssen, die Stabilität des Viologensystems auf der Oberfläche zu verbessern.
Die vorliegende Doktorarbeit beschäftigt sich mit der Untersuchung von molekularen Systemen, die aus mehreren Chromophoren bestehen und über einen Zweiphotonen-Prozess aktiviert werden können.
Die Zweiphotonen-Absorption (2PA) beschreibt die nahezu simultane Absorption zweier Photonen, deren Summe die Energie ergibt, die für den entsprechenden elektronischen Übergang nötig ist. Da für die Anregung somit zwei niederenergetische Photonen benötigt werden, kann für die 2PA Nahinfrarot-Licht (NIR-Licht) verwendet werden, welches eine geringe Phototoxizität aufweist und eine tiefe Gewebedurchdringung ermöglicht. Weiterhin wird durch die intrinsische dreidimensionale Auflösung der 2PA eine hohe Ortsauflösung der Photoaktivierung erzielt.
Photolabile Schutzgruppen (PPGs) bzw. Photocages sind chemische Verbindungen, die der vorübergehenden Maskierung der biologischen Funktion eines (Makro-)Moleküls dienen. Sie können durch Licht geeigneter Wellenlängen abgespalten werden (uncaging), wodurch die Aktivität des geschützten Substrats wiederhergestellt wird. Leider weisen viele der etablierten PPGs schlechte Zweiphotonen-Eigenschaften auf. Um die 2P-Aktivität einer PPG zu erhöhen, kann sie kovalent mit einem guten Zweiphotonen-Absorber verknüpft werden, der bei Bestrahlung das Licht über einen Zweiphotonen-Prozess absorbiert und anschließend mittels Energietransfer auf die photolabile Schutzgruppe überträgt. Dies führt schließlich zur Uncaging-Reaktion.
Im Zuge von Projekt I dieser Dissertation wurde eine solche molekulare Dyade für verbessertes Zweiphotonen-Uncaging bestehend aus einem Rhodamin-Fluorophor als Zweiphotonen-Absorber und einem Rotlicht-absorbierenden BODIPY als photolabile Schutzgruppe hergestellt und charakterisiert. Die Zweiphotonen-Aktivität des Fluorophors wurde mittels TPEF-Messungen (two-photon excited fluorescence) untersucht. Anschließend wurde das Rhodamin an einen 3,5-Distyryl-substituierten BODIPY-Photocage gekuppelt. Der Energietransfer innerhalb dieser Dyade wurde mithilfe von transienter Ultrakurzzeit-Spektroskopie und quantenmechanischen Berechnungen untersucht. Die Freisetzung der Abgangsgruppe para-Nitroanilin (PNA) bei Belichtung der Dyade konnte sowohl nach Einphotonen-Anregung des Rhodamins als auch des BODIPYs mithilfe von UV/vis-Absorptionsmessungen qualitativ nachgewiesen werden.
Da die Uncaging-Reaktion allerdings nicht besonders effektiv war, wurde für die Weiterführung des Projekts ein neuer BODIPY Photocage, der eine verbesserte Photolyse-Effizienz und eine höhere Photostabilität aufwies, verwendet und erneut an einen Rhodamin-Fluorophor geknüpft. Anhand dieser optimierten Dyade konnte die Einphotonen-Photolyse quantifiziert, d.h. eine Uncaging-Quantenausbeute für die Freisetzung von PNA bestimmt werden. Weiterhin wurde beobachtet, dass die Photolyse der Dyade mit einer deutlichen Änderung ihrer Fluoreszenzeigenschaften einherging. Dies ermöglichte einen Nachweis des Zweiphotonen-Uncagings mithilfe eines Fluoreszenzmikroskops. Die Dyaden-Moleküle wurden zur Immobilisierung in Liposomen eingeschlossen und unter dem konfokalen Fluoreszenzmikroskop belichtet. Sowohl nach Einphotonen- als auch nach Zweiphotonen-Anregung der Rhodamin-Einheit konnte die gewünschte Fluoreszenzänderung beobachtet und somit das Uncaging bestätigt werden.
In Projekt II der Dissertation wurde ein photoaktivierbarer Fluorophor (PAF) hergestellt. PAFs liegen in ihrer geschützten Form dunkel vor. Durch die Aktivierung mit Licht können sie Fluoreszenzsignale emittieren. Sie liefern somit ein direktes Feedback über die Lichtverteilung und –intensität innerhalb einer Probe und werden somit unter anderem für die Charakterisierung und Optimierung von Belichtungsapparaturen verwendet. Besonders wünschenswert ist hierbei eine Fluoreszenzaktivierung mit sichtbarem Licht bzw. mit NIR-Licht über einen Zweiphotonen-Prozess.
Im Zuge der Arbeit wurde ein Rhodamin-Derivat synthetisiert, das durch die Anbringung eines DEACM450-Photocages in seine nichtemittierende Form gezwungen wurde. Bei Bestrahlung mit 455 nm konnte die Abspaltung der Cumarin-Schutzgruppe und der damit verbundene Anstieg der Rhodamin-Fluoreszenz beobachtet und eine Uncaging-Quantenausbeute bestimmt werden. Für die Untersuchung der Zweiphotonen-Photolyse wurde der geschützte Fluorophor in einem Hydrogel immobilisiert und unter dem konfokalen Fluoreszenzmikroskop betrachtet werden. Anschließend wurden Fluoreszenzbilder vor und nach Photoanregung von bestimmten Regionen des Hydrogels aufgenommen. Durch das Uncaging der Probe konnten helle, definierte Muster geschrieben und ausgelesen werden. Die Photoaktivierung führte dabei sowohl über die Einphotonen-Anregung mit blauem Licht (488 nm) als auch über die Zweiphotonen-Anregung mit NIR-Licht (920 nm) zur Generierung von stabilen, gleichmäßigen Fluoreszenzmustern mit hohem Kontrast.
Unter den weltweit in ständigem Gebrauch befindlichen Chemikalien befinden sich nicht nur Verbindungen mit akuter toxischer Wirkung, sondern auch solche mit Wirkung auf das endokrine System. Eine große Rolle spielt hier vor allem die Störung der Geschlechtsdifferenzierung und der Reproduktion, ausgelöst durch natürliche oder synthetische Chemikalien mit endokrinem Potential, sogenannte endokrine Disruptoren (ED). Diese Chemikalien können über unterschiedliche Eintragspfade in die Umwelt gelangen. Seit Mitte des 20. Jahrhunderts werden mehr und mehr Fälle bekannt, in denen anthropogene Chemikalien die Pflanzen- und Tierwelt belasten, darunter zahlreiche Befunde zu Störungen des Hormonsystems von Mensch und Tier.
Im Rahmen der Gefahren- und Risikobewertung steht bereits eine Vielzahl harmonisierter Prüfrichtlinien für die Identifizierung und Evaluierung der Effekte von (potentiellen) ED zur Verfügung. Um die Gesamtheit aller potentiellen Interaktionen von ED mit dem Hormonsystem detektieren zu können, ist die In-vivo-Untersuchung an Vertebraten in der Chemikalienregistrierung bisher unabdingbar. Bei der Untersuchung endokriner Potentiale in höheren Vertebraten spielen vor allem nager- und vogelbasierte Testsysteme eine wichtige Rolle. Diese bergen jedoch einen hohen zeitlichen, personellen und finanziellen Aufwand und erfordern eine massive Zahl an Versuchstieren, die für diese Tests benötigt werden. Darüber hinaus beinhalten Tierversuche eine Vielzahl von Problemen einschließlich ethischer Bedenken, die sich als Konsequenz der Tierhaltung unter Versuchsbedingungen ergeben. Ein sehr interessanter und vielversprechender Ansatz zur Reduktion von Tierversuchen ist die Entwicklung eines standardisierten Verfahrens für die Untersuchung potentieller ED in Vogelembryonen. Auf Vogelembryonen basierende In-ovo-Modelle stellen einen Mittelweg zwischen In-vitro- und In-vivo-Testsystemen dar. Mit dem Vogeleitest wird der sich entwickelnde Embryo, das für ED sensitivste Entwicklungsstadium im Leben eines Organismus, berücksichtigt.
Das Ziel der vorliegenden Arbeit war die Entwicklung und Eignungsuntersuchung eines auf dem Embryo des Haushuhns (Gallus gallus domesticus) basierenden Testsystems für den Nachweis von ED. Das resultierende Testsystem soll als Alternativmethode zu bisher etablierten nager- und vogelbasierten Testsystemen für die Untersuchung der Effekte hormonell aktiver Substanzen auf die Geschlechtsdifferenzierung in höheren Wirbeltieren eingesetzt werden.
Die im Rahmen der vorliegenden Dissertation durchgeführten Arbeiten umfassten sowohl die Charakterisierung der Normalentwicklung des Hühnerembryos, unbeeinflusst durch ED, als auch die morphologisch-histologischen Veränderungen der Gonaden von substanzexponierten Embryonen. Für die Untersuchung substanzbedingter Effekte, welche den Schwerpunkt der vorliegenden Arbeit darstellen, wurden die Embryonen gegenüber verschiedenen (anti)estrogenen und (anti)androgenen Substanzen exponiert. Unter Einfluss der Estrogene Bisphenol A (BPA) und 17α-Ethinylestradiol (EE2) entwickelten sich die Keimdrüsen der Männchen zu Ovotestes, während Weibchen ein Ovar mit deutlich schmalerem Cortex ausbildeten. Unter Einfluss der Antiestrogene Fulvestrant und Tamoxifen blieben Effekte auf die Gonaden männlicher Embryonen aus, eine durch das potente Estrogen EE2 hervorgerufene Feminisierung männlicher Gonaden konnte durch beide Substanzen jedoch effektiv antagonisiert werden. Weibchen bilden unter Einfluss von Tamoxifen deutlich schmalere linke Gonaden mit einem missgebildeten Cortex aus. Unter Einfluss der Androgene Tributylzinn (TBT) und 17α-Methyltestosteron (MT) blieben die Effekte auf männliche Embryonen aus, während die Weibchen anatomisch virilisierte Gonaden und eine Reduktion des linken gonadalen Cortex aufwiesen. Allein die untersuchten antiandrogenen Versuchssubstanzen Cyproteronacetat (CPA), Flutamid und p,p´-Dichlorodiphenyldichloroethen (p,p´-DDE) hatten keinen Effekt auf die gonadale Geschlechtsdifferenzierung männlicher und weiblicher Hühnerembryonen.
Es konnte gezeigt werden, dass der Embryo von G. gallus domesticus einen sensitiven Organismus innerhalb des Tierreichs darstellt und hinreichend sensitiv auf eine Reihe von endokrin wirksamen und reproduktionstoxischen Chemikalien reagiert. Anatomische und histologische Änderungen der Gonaden können daher als Biomarker für die Wirkung von ED bei Vögeln nützlich sein. Die untersuchten Endpunkte beziehen sich jedoch auf apikale Effekte und liefern keine mechanistischen Informationen zu den untersuchten Substanzen. Der
Hühnereitest ist eine sinnvolle Ergänzung zur bestehenden OECD-Testbatterie und zeichnet sich besonders durch seine kostengünstige und einfache Handhabung im Labor sowie einfach durchzuführende Tests aus. Durch die vergleichsweise kurze Versuchsdauer von nur 19 Tagen ist ein schnelles Substanzscreening möglich, welches zeitlich deutliche Vorteile gegenüber den etablierten nager- und vogelbasierten Testsystemen hat. Als Alternative zu bisherigen Assays könnte der vorgeschlagene Hühnereitest dazu beitragen, im Rahmen der (öko)toxikologischen Gefährdungs- und Risikobewertung von Chemikalien künftig weniger Versuchstiere zu verwenden.
Nukleinsäuren und Proteine bilden zusammen mit den Kohlenhydraten und Lipiden die vier großen Gruppen der Biomoleküle. Dabei setzen sich Nukleinsäuren aus einer variierenden Abfolge von Nukleotiden zusammen. Gleiches trifft auf die Proteine zu, wobei deren Bausteine als Aminosäuren bezeichnet werden. Die Reihenfolge der Bausteine bestimmt zusammen mit der Interaktion, die die einzelnen Bestandteile untereinander eingehen, deren Funktion. Um deren Wirkungsweise verstehen und nachverfolgen zu können, wurden unterschiedliche Methoden entwickelt, zu welchen auch die EPR-Spektroskopie gehört.
Durch den Einbau modifizierter Nukleotide oder Aminosäuren lassen sich Spinlabel in die sonst EPR-inaktiven Nukleinsäuren und Proteine einführen. Diese Marker lassen sich grundsätzlich in drei Klassen unterteilen (Metallionen, Nitroxidradikale und TAMs), weisen aber immer mindestens ein ungepaartes Elektronenpaar auf. Die Festphasensynthese ist eine Standardprozedur zur Herstellung von markierten Nukleinsäuren und Proteinen. Allerdings führen die Bedingungen dieser Methode zumindest teilweise zur Zersetzung der Nitroxidradikale, die dieser Arbeit zugrunde liegen, wenn sie direkt während der Synthese eingebaut werden. Der direkte Einbau ist aber in vielen Fällen essenziell, um bestimmte Eigenschaften zu erzielen.
Um den Abbau des Nitroxidradikals während der Festphasensynthese zu verhindern, kann dieses vorübergehend mit einer Schutzgruppe versehen werden, welche sich anschließend wieder abspalten lässt.
Der Schwerpunkt dieser Arbeit liegt hierbei auf der Darstellung neuer photolabil geschützter Spinlabel zur Synthese markierter Proteine und Nukleinsäuren.
Basierend auf den Nukleotiden Uridin und Cytidin konnten zwei für die RNA-Synthese vorgesehene Phosphoramidite synthetisiert werden, welche jeweils an der 5-Position des Pyrimidinrings mit einem photolabil geschützten Spinlabel auf Basis von TPA versehen waren. Durch Einbau des Uridinderivats in das Neomycin-Aptamer konnte zudem der Einfluss der Spinlabel auf die lokale Struktur mit Hilfe von in-line probing gezeigt werden.
Der gleiche TPA-Label konnte ebenfalls mit einem Lysin gekuppelt werden, welches später über ein orthogonales tRNA/Aminoacyl-tRNA Synthetase Paares in eine Polypeptid eingebaut werden sollte. In Kooperation mit dem AK Grininger ist auch ein nicht geschützter Spinlabel zur kupferfreien Markierung der Fettsäuresynthase entstanden. Abschließend war noch die Synthese eines auf Phenylalanin basierenden photolabil geschützten Spinlabel in Arbeit, welcher jedoch nicht beendet werden konnte. Dieser sollte mittels Festphasensynthese einbaubar sein, weswegen er am N-Terminus mit Fmoc geschützt ist.
Der Fokus der Arbeit liegt auf der Untersuchung von Wechselwirkungen zwischen Molekülen in selbst-anordnenden Monolagen (SAMs) auf Goldoberflächen mittels Rastertunnelmikroskopie und komplementären Methoden wie z.B. Infrarot-Reflektions-Absorptions-Spektro-skopie.
In dieser Arbeit wurde das kürzlich etablierte Konzept von eingebetteten Dipolmomenten in aromatischen, SAM-bildenden Molekülen eingehender untersucht. Das Ausmaß des Dipol-moments und die Größe der SAM-bildenden Moleküle wurden synthetisch variiert und der Einfluss auf die Struktur und elektronischen Eigenschaften der SAMs untersucht. Binäre, gemischte Monolagen aus SAM-bildenden Molekülen mit "entgegen gerichteten", Dipolmomenten wurden hergestellt und charakterisiert. Zur Herstellung der binären, gemischten Monolagen wurden zwei Methoden verwendet: die Monolagen wurden a) aus bereits gemischten Lösungen der Moleküle abgeschieden oder b) eine reine SAM in die Lösung des anderen Moleküls eingelegt, so dass ein Austausch stattfand. Der Vergleich der beiden Methoden ermöglicht Rückschlüsse über die Abscheidungsprozesse. Die Charakterisierung der SAMs dieser Mischungsreihen gab Aufschluss über Eigenschaften wie Packungsdichte, Austrittsarbeit, elektronischen Ladungstransport in Monolagen und Orientierung der Moleküle relativ zur Oberfläche und erlaubte Schlussfolgerungen über die Mischbarkeit und das Ausmaß der Dipolwechselwirkungen der Moleküle in der Monolage. In einem ähnlichen Ansatz zu dem oben beschriebenen Vorgehen wurden Quadrupolwechselwirkungen zwischen SAM-bildenen, Benzol-, Naphtalin- und Anthracenderivaten untersucht. In Mischungsreihen wurden SAMs von nicht- und teilweise (hoch)fluorierten, SAM-bildenden Molekülen auf Goldoberflächen charakterisiert. Die Ergebnisse der Untersuchungen können bei der gezielten Einstellung der elektronischen Eigenschaften in elektronischen Bauteilen wie OFETs Anwendung finden.
In einem weiteren Projekt wurde der Einfluss von polaren Endgruppen auf die in situ Abspaltung von Schutzgruppen an Terphenylthiol-Derivaten untersucht, wobei die Ergebnisse zum Aufbau größerer, aus organischer Elektronik bestehender, Netzwerke verwendet werden können.
Das Promotionsvorhaben ist im Bereich der arbeitssoziologischen Forschung angesiedelt. Vor dem Hintergrund der Individualisierung im arbeitssoziologischen Feld, sowie der gestiegenen Bedeutung von Home Office aufgrund der Corona-Pandemie, widmet sich das Vorhaben dem Problemfeld der wahrgenommenen Ambivalenz von Home Office, sowie dem Zusammenhang zwischen Home Office und Individualisierung, und dessen Bedeutung und Auswirkungen für und auf das Individuum.
Als methodisches Verfahren dient hier zur Theoriegenerierung die Grounded Theory. Gegenstand der Analyse ist die mediale Darstellung. Als mediale Daten werden Zeitungsartikel mit der thematischen Fokussierung auf Home Office betrachtet. Die hier gewählte Darstellung des Vorgehens, ermöglicht es, das Vorgehen mit der Grounded Theory kleinteilig und kleinschrittig nachzuvollziehen und verstehen zu können.
Ziel der Studie ist es, Home Office in Bezug zur Individualisierung zu setzen und die grundsätzlichen Zusammenhänge innerhalb der Wahrnehmungen von Home Office und Individualisierung herauszuarbeiten, sowie im medialen Kontext allgemeine Darstellungen und Wahrnehmungen von Home Office zu erkennen und zu verdeutlichen.
Letztlich zeigt sich, dass die Gemeinsamkeit in der medialen Darstellung von Home Office darin liegt, dass eine Aushandlung über die Notwendigkeit von Handlungsvermögen erfolgt. Diese Aushandlung spiegelt sich in den Aspekten der Darstellung von Handlungsmöglichkeiten und Handlungsgrenzen wieder, sowie in der Darstellung der Notwendigkeit von Gestaltungsspielraum und/oder der Notwendigkeit von Grenzen für das Individuum.
Die im Laufe der Auswertung entwickelten Darstellungsformen ermöglichen hierbei, die differenzierten Standpunkte im Hinblick auf die Arbeitsweise Home Office erfassen zu können. Es wurden Formen gebildet, um die verschiedenen Blickwinkel voneinander abgrenzen zu können. Bei Betrachtung dieser Formen wird jedoch ersichtlich, dass sich die exakte punktuelle Verortung des Subjektes zwischen Fremdbestimmung und Selbstbestimmung im Hinblick auf die Zielsetzung des maximalen persönlichen und/oder wirtschaftlichen Erfolges aus medialer Perspektive als schwierig erweist.
Die in der Auswertung entwickelten Darstellungsformen verdeutlichen außerdem die Gleichbedeutung von Arbeitssphäre und Lebenssphäre für das Individuum in der medialen Darstellung. Gleichzeitig zeigen sie den Wunsch nach Freiheit, den Wunsch nach Grenzen, sowie den Wunsch nach Selbstverwirklichung, Gestaltung und Entlastung von Erwartungen auf.
Seit Jahrzehnten finden Kunststoffe aufgrund ihrer vorteilhaften Materialeigenschaften wie z. B. Formbarkeit und im Vergleich zu Glas oder Metall geringe Kosten und leichtes Gewicht, vermehrt Anwendung in allen Bereichen des täglichen Lebens. Einhergehend gelangen Kunststoffe zunehmend in die Umwelt, und reichern sich dort an. Besondere Aufmerksamkeit erfahren Partikel im Größenbereich von 1-1000 µm, sogenanntes Mikroplastik (MP), welches entweder direkt eingetragen wird oder in der Umwelt durch Fragmentierung größerer Plastikteile entsteht. Lange Zeit fokussierte sich die MP Forschung vorrangig auf aquatische Ökosysteme, obwohl Schätzungen davon ausgehen, dass die Kunststoffeinträge in terrestrischen Ökosystemen um ein Vielfaches höher sind. Besonders relevante Eintragspfade sind neben der unsachgemäßen Entsorgung von Abfällen, die landwirtschaftliche Klärschlamm- und Kompostdüngung und der zunehmende Einsatz von Mulchfolien, sowie der im Straßenverkehr generierte Reifenabrieb.
Für eine Abschätzung und Bewertung der MP-Belastung in Böden sind analytische Messungen von MP in Umweltproben essenziell, derzeit jedoch kaum existent, da MP im Boden partikulär und heterogen verteilt vorliegt und deshalb nur schwierig zu detektieren ist. Die für viele Analyseverfahren notwendige Isolation der Kunststoffpartikel, sowie die für repräsentative Messungen erforderliche Aufbereitung großer Probenvolumina stellen besondere analytische Herausforderungen mit großem Kosten- und Zeitaufwand dar. Chromatografische Verfahren finden wenig Anwendung, bieten aber vorteilhafte Voraussetzungen als Screeningverfahren für die Untersuchung von Böden, da sie nicht zwangsweise eine Partikelisolation verlangen, und zudem als Ergebnis einen Massegehalt liefern.
Diese Dissertation zeigt drei Anwendungen Chromatografie basierter Analyseverfahren zur Charakterisierung von MP im Boden. Erstmalig wurde die Thermo-Extraktion-Desorption-Gaschromatografie-Massenspektrometrie (TED-GC/MS) für die Analytik von Reifenabrieb in realen Umweltproben angewandt bei minimaler Probenaufbereitung. Dafür wurde ein Straßenrandboden umfangreich beprobt und analysiert, und es konnte neben der Eignung der analytischen Methode auch eine repräsentative Probenahmestrategie und räumliche Verteilungsmuster von Reifenabrieb im Boden demonstriert werden.
Der zweite Forschungsschwerpunkt lag auf der Methodenentwicklung und validierung eines neuartigen chemischen Extraktionsverfahrens für die Bestimmung von Polyestern in Bodenproben. Das Verfahren basiert auf der hydrolytischen Spaltung von Polyestern in ihre Monomere, deren flüssigchromatografische Abtrennung von Matrixbestandteilen und der Detektion mittels UV-Absorption. Das Verfahren verlangt neben der Extraktion keine weiteren Probenaufbereitungsschritte, ist für unterschiedliche Umweltmatrizes geeignet und ist damit z. B. prädestiniert für den Nachweis von Polyesterfasern auf gedüngten landwirtschaftlichen Flächen.
MP ist nicht nur aufgrund seiner Persistenz problematisch, sondern auch, weil es hydrophobe organische Schadstoffe aus dem Umweltmedium anreichern und transportieren kann. Maßgeblich für das Sorptionsverhalten sind die Materialeigenschaften des zugrunde liegenden Kunststoffes, welche Änderungen durch Alterungsprozessen unterliegen. Der Zusammenhang zwischen Materialalterung und Sorptionsverhalten wurde in früheren Studien kontrovers diskutiert und ist der dritte Teil dieser Arbeit. In einem Sorptionsexperiment konnte mittels Headspace-Gaschromatografie mit Flammenionisations-Detektion die Aufnahme von Aromaten an den Kunststoffen Polypropylen und Polystyrol quantifiziert werden. Die Kunststoffe wurden materialwissenschaftlich charakterisiert, teilweise künstlich gealtert und die daraus resultierende Änderungen der Materialeigenschaften sowie einhergehenden Änderungen des Sorptionsverhaltens erfasst. Dadurch war es möglich den Einfluss einzelner Materialeigenschaften auf das Sorptionsverhalten zu bewerten, Rückschlüsse auf zugrunde liegende Sorptionsmechanismen zu treffen und zu zeigen, dass in vorliegendem Experiment die Polymeralterung bei MP nicht zu einer erhöhten Schadstoffsorption führte.
Nukleäre Rezeptoren (NRs) sind ligandengesteuerte Transkriptionsfaktoren, die sich aus einer Superfamilie von 48 humanen Mitgliedern zusammensetzt. Seit vielen Jahrzehnten stellen sie ein attraktives Forschungsgebiet für die Arzneistoffentwicklung dar, da sie eine bedeutende Rolle in zahlreichen Prozessen unseres Körpers spielen. Das Ziel dieser Forschungsarbeit bestand darin, neue innovative Liganden für den Peroxisomen-Proliferator-aktivierter-Rezeptor γ (PPARγ) sowie die Waisenrezeptoren Nervenwachtumsfaktor induzierter Klon B (Nur77) und Neuronen-abgeleiteter Waisenrezeptor (NOR-1) zu identifizieren.
Bei den Rezeptoren Nur77 und NOR-1 handelt es sich um noch unzureichend erforschte NRs der NR4A-Familie. Es fehlt insbesondere an Modulatoren dieser Rezeptoren als Werkzeuge, um ihr zum Teil noch unentdecktes Potential zu erforschen. Um diese Lücke zu schließen, wurde ein in vitro Screening durchgeführt und eine Arzneistoff-Fragment-Bibliothek mit 480 Fragmenten, die aus bekannten strukturellen Motiven zugelassener Arzneimittel stammen, auf ihre modulatorische Aktivität an Nur77 und NOR-1 gescreent. Durch das Screening und weitere Testungen konnten jeweils für Nur77 und für NOR-1 drei Verbindungen als Liganden identifiziert werden. Bei der weiteren Charakterisierung stellte sich insbesondere 41 als besonders vielversprechenden Ausgangspunkt für die Entwicklung von Liganden für Nur77 und NOR-1 heraus, der ein besseres Verständnis für die invers agonistische Aktivität lieferte und die Möglichkeit für eine agonistische Modulation aufzeigte. Zudem konnte durch ein weiteres Screening mit Computer-gestützten Verfahren auf Nur77 der Chemotyp von 41 noch weiter optimiert werden und führte zur Identifizierung von Verbindung 68 (EC50 = 2 ± 1 μM). Diese zeichnete sich durch eine hohe Potenz aus, die zu einer beachtenswerten Aktivierung von Nur77 (169 ± 18% maximale Aktivierung) führte. Die Untersuchung der strukturellen Erweiterung von 43 (IC50 = 47 ± 8 μM) führte zur Verbindung 75, die eine 3,5-fache Steigerung des inversen Agonismus auf NOR-1 zeigte. Die Erkenntnisse dieser Entdeckung ermöglichte den Rückschluss, dass das Einführen von voluminösen Resten, wie Brom oder Phenyl eine invers agonistische Potenz im unteren mikromolaren Bereich bewirkte. Die Identifizierung der Verbindungen 41 und 68 für Nur77 sowie 43 und 76 für NOR-1 könnten dazu beitragen, ein tieferes Verständnis der molekularen Mechanismen hinter der Aktivierung von Nur77 und NOR-1 zu erlangen und einen vielversprechenden chemischen Ausgangspunkt für die Entwicklung von noch wirksameren und selektiveren Liganden bieten.
Im anderen Teil dieser Forschungsarbeit stand die Synthese eines selektiven allosterischen PPARγ-Liganden im Fokus, um mit diesem die allosterische Modulation von PPARγ zu charakterisieren. Den Ursprung der Idee lieferte Garcinolsäure, dass in der Lage ist, PPARγ orthosterisch und allosterisch zu binden. Aufgrund der komplexen biologischen Effekte und der geringen synthetischen Zugänglichkeit konnte 37 nicht als Ausgangspunkt für dieses Vorhaben dienen. Auf der Suche nach einer geeigneten Ausgangsverbindung wurde durch ein in vitro Screening mit einer hauseigenen Sammlung von synthetischen PPARγ-Modulatoren, bei dem die orthosterische Bindungsstelle von PPARγ durch den irreversiblen Antagonisten GW9662 blockiert wurde, Verbindung 39 identifiziert. Diese ist wie 37 in der Lage PPARγ ortho- und allosterisch zu binden, weist aber eine bessere synthetische Zugänglichkeit auf. Die Co-Kristallisation von 39 mit der PPARγ-Ligandenbindungsdomäne zeigte, dass die orthosterische Bindungstasche (BT) keinen Platz für eine Verlängerung des Moleküls bietet, die allosterische BT ist dagegen Lösungsmittel exponiert, wodurch eine Verlängerung möglich schien. Daraufhin wurde die Hypothese aufgestellt, dass eine Verlängerung von 39 eine orthosterische Bindung verhinderte und dadurch eine selektive allosterische Bindung ermöglichen könnte. Aus diesem Grund wurde eine modifizierte Struktur von 39 verwendet, um eine einfache Einbringung eines Linkers in das Molekül zu ermöglichen. Durch verschiedenste Modifikationen und Anpassungen wurde 104 als potenzieller selektiver allosterischer Ligand synthetisiert. Die Testung von 104 im Reportergenassay zeigte eine schwache Aktivierung von PPARγ allein, jedoch offenbarte sich bei der Kombination mit dem orthosterischen Agonisten Pioglitazon eine dosisabhängige Steigerung der Aktivität von PPARγ. Diese Ergebnisse deuteten darauf hin, dass trotz der Bindung von 104 eine Bindung von 33 in die orthosterische BT immer noch möglich war. Diese Annahme konnte anschließend auch durch zellfreie Experimente (Isotherme Titrationskalorimetrie, MS-basierte-PPARγ-Ligandenbindungs-Assay) bestätigt werden. Der eindeutige Beweis für die selektive allosterische Bindung von 104 lieferte die Co-Kristallisation von 104 mit der PPARγ-LBD. Zusätzlich offenbarte sich, durch den strukturellen Vergleich der Bindungsmodi von anderen PPARγ-Liganden, der außergewöhnliche Bindungsmodus von 104, da 104 im Vergleich zu anderen Liganden selektiv die allosterische BT, ohne Überlappung in die orthosterische BT, besetzte. Weitere Untersuchungen, wie der Einfluss von 104 auf die Rekrutierung von Co-Regulatoren, die Differenzierung von adipozytären Stammzellen und die Genexpression zeigten eine bisher einmalige Modulation von PPARγ, die auf die selektive allosterische Modulation zurückzuführen war. Mit 104 wurde ein innovatives und vielfältig einsetzbares Werkzeug zur Erforschung der allosterischen Modulation von PPARγ entdeckt, dessen Geschichte an diesem Punkt noch nicht zu Ende ist.
Das adaptive Immunsystem schützt den Menschen vor extra- wie auch intrakorporal auftretenden Pathogenen und Krebszellen. Die Funktionalität dieses Prozesses geht hierbei auf die Interaktion und Kooperation einer Vielzahl verschiedener Zelltypen des Körpers zurück und ist vorwiegend innerhalb der Lymphknoten lokalisiert. Ist auch nur ein Bestandteil dieses sensiblen Prozesses gestört, kann dies zu einem teilweisen oder vollständigen Verlust der immunologischen Fitness des Menschen führen. Daher war es das Ziel dieser Arbeit, solche Aberrationen des humanen Lymphknotengewebes umfassend digital-pathologisch zu detektieren und zu definieren.
Hierfür wurde zunächst eine digitale Gewebedatenbank etabliert. Diese basiert auf dem im Rahmen dieser Arbeit implementierten Content-Management-System Digital Tissue Management Suite. Weiterhin wurde die Software Feature analysis in tissue histomorphometry entwickelt, welche die Analyse von zweidimensionalen whole slide images ermöglicht. Hierbei werden Methoden aus dem Bereich Computer Vision und Graphentheorie eingesetzt, um morphologische und distributionale Eigenschaften der Zelltypen des Lymphknotens zu charakterisieren. Darüber hinaus enthält diese Software Plug-ins zur Visualisierung und statistischen Analyse der Daten.
Aufbauend auf der eigens implementierten, digitalen Infrastruktur, in Kombination mit der Software Imaris wurden zweidimensional und dreidimensional gescannte, reaktive und neoplastische Gewebeproben digital phänotypisiert. Hierbei konnten neue mechanische Barrieren zur Kompartimentalisierung der Keimzentren aufgeklärt werden. Weiterhin konnte der Erhalt des quantitativen Verhältnisses einzelner Zellpopulationen innerhalb der Keimzentren beschrieben werden. Ausgehend von den reaktiven Phänotypen des Lymphknotens, wurden pathophysiologische Aberrationen in verschiedenen lymphatischen Neoplasien untersucht. Hierbei konnte gezeigt werden, dass speziell die strukturelle Destruktion häufig mit einer morphologischen Veränderung der fibroblastischen Retikulumzellen einhergeht.
Neben strukturellen Veränderungen sind auch zytologische Veränderungen der Tumormikroumgebung zu verzeichnen. Eine besondere Rolle spielen hierbei sogenannte Tumor-assoziierte Makrophagen. Im Rahmen dieser Arbeit konnte gezeigt werden, dass speziell Makrophagen in der Tumormikroumgebung des diffus großzelligen B-Zell-Lymphoms und der chronisch lymphatischen Leukämie spezifische pathophysiologische Veränderungen aufzeigen. Auch konnte gezeigt werden, dass genetische Änderungen neoplastischer B-Zellen mit einer generellen Reduktion der CD20-Antigendichte einhergehen.
Zusammenfassend ermöglichten die Ergebnisse die Generierung eines umfassenden digital-pathologischen Profils des klassischen Hodgkin-Lymphoms. Hierbei konnten morphologische Veränderungen neoplastischer, CD30-positiver Hodgkin-Reed-Sternberg-Zellen validiert und beschrieben werden. Auch konnten pathologische Veränderungen des Konnektoms und der Tumormikroumgebung dieser Zellen parametrisiert und quantifiziert werden. Abschließend wurde unter Anwendung eines Random forest-Klassifikators die diagnostische Potenz digital-pathologischer Profile evaluiert und validiert.
Molekulare Werkzeuge können in der Wissenschaft unter anderem dazu verwendet werden, biochemische Prozesse gezielt zu untersuchen, um sie somit besser zu verstehen. Dabei handelt es sich zum Beispiel, um kleine chemische Moleküle, die gezielt für ihr Anwendungsgebiet konzipiert worden sind. Mit Ihnen lassen sich z.B. Interaktionen zwischen (Makro-)Molekülen regulieren, chemische Gleichgewichte lokal verändern oder auch Botenstoffe zielgerichtet freisetzen. Die Effekte dieser temporären Einwirkung auf verschiedenste biologische Systeme können hilfreiche Erkenntnisse struktureller, funktioneller oder systematischer Art für die entsprechenden Forschungsgebiete liefern.
Um die interdisziplinären Problemstellungen zielgerichtet mit den entsprechend zugeschnittenen Werkzeugen zu adressieren, ist es dabei jedoch absolut notwendig, dass ein umfassendes und über die Grenzen der jeweiligen Fachgebiete hinaus gehendes Verständnis der jeweiligen Fragestellungen entwickelt wird.
Viele der bisher bekannten Werkzeuge benötigen für ihren Einsatz bis heute noch relativ harsche Reaktionsbedingungen, haben ein eingeschränktes Anwendungsfeld oder lassen sich nicht ausreichend Zeit- & Ortsaufgelöst „aktivieren“. Die Möglichkeit Licht als externes Trigger-Signal zu verwenden, um die entsprechenden molekularen Werkzeuge zu aktivieren (oder auch zu deaktivieren), überwindet genau diese Defizite und bringt neben der hohen zeitlichen und räumlichen Auflösung noch viele weitere Vorteile mit sich. Im Rahmen meiner Doktorarbeit ist es mir gelungen gemeinsam mit meinen Kooperationspartnern neue lichtaktivierbare molekulare Werkzeuge von Grund auf zu designen, zu synthetisieren, sie auf ihre photochemischen Eigenschaften zu untersuchen und sie anzuwenden. Durch die interdisziplinäre Zusammenarbeit mit Doktoranden aus der Organischen, Theoretischen und Physikalischen Chemie, konnte ein umfassendes Bild dieser neuen Substanzklassen aufgezeigt werden. Die verschiedenen Arten lichtaktivierbarer Werkzeuge sollen im Verlauf dieser Arbeit genauer herausgearbeitet werden. Generell kann man in drei grundlegenden Klassen von lichtaktivierbaren Werkzeugen unterscheiden: 1. irreversibel photolabile Schutzgruppen, 2. photoaktivierbare Label und 3. reversibel lichtschaltbare Photoschalter.
Auf dem Gebiet der photolabilen Schutzgruppen, auch photoaktivierbare Schutzgruppen oder Photocages genannt, ist es uns gelungen eine neue Spezies von Molekülen zu identifizieren, die dazu in der Lage sind, nach photochemischer Anregung eine spezifische Bindung innerhalb ihres molekularen Gerüsts zu spalten. Möglich gemacht wurde dies, indem wir den sog. „uncaging Prozess ganz neu gedacht“ haben und mit der Unterstützung von Theorie und Spektroskopie unsere Ergebnisse in einer Struktur-Aktivitäts-Beziehungs-Studie (SAR) festhalten konnten. Aus einer Substanzbibliothek von diversen theoretisch berechneten Kandidaten, wurden die vielversprechendsten Verbindungen anschließend synthetisiert und photochemisch charakterisiert. Nach initialen Untersuchungen und den daraus hervorgehenden Erkenntnissen, wurden weitere molekulare Struktur auf die Optimierungen der photochemischen Eigenschaften hin theoretisch berechnet und anschließend im Labor realisiert. Daraus resultierend entwickelten wir einen Photocage, der mit einer hohen Quantenausbeute mit Licht von über 450 nm photolysierbar ist und ebenfalls dazu in der Lage ist Neurotransmitter wie z.B. Glutamat zielgerichtet und lichtaktiviert freizusetzen. Eine weitere Struktur-Aktivitäts-Beziehungs-Studie wurde im Rahmen dieser Arbeit mit dem Isatin-Gerüst als potentiell neue photolabile Schutzgruppe durchgeführt.
Ebenfalls konnten in einer dritten Studie auf dem Gebiet der photolabilen Schutzgruppen Untersuchungen am Coumarin-Grundgerüst zeigen, dass eine systematische Einschränkung der Relaxationspfade im Molekül eine Verbesserung der photochemischen Eigenschaften mit sich bringen kann.
Photoaktivierbare Label werden in den verschiedensten Bereichen der Wissenschaft angewendet. Meist erlauben jedoch die chemischen Moleküle nur eine begrenzte „Beobachtungszeit“ der biochemischen Prozesse aufgrund der effizienten und damit schnellen Relaxationspfade zurück in den Grundzustand. Zu Beginn der durchgeführten Untersuchungen, bestand unsere Idee darin, die selektive Prä-IR-Anregung mit Hilfe eines UV/vis-Pulses (entsprechend der VIPER-Spektrokopie) in ein langlebiges Triplett-Signal eines geeigneten Chromophors zu überführen, welches anschließend für die Beobachtung vergleichsweise lang-lebiger biochemischer Prozesse verwendet werden könnte. Aus dieser Idee heraus entwickelten wir einen Chromophor, der neben einer Absorption im sichtbaren Bereich des elektromagnetischen Spektrums, zusätzlich eine IR-adressierbare funktionelle Gruppe, sowie die Eigenschaft, ein effizientes Inter-System-Crossing (ISC) nach photochemischer Anregung durchzuführen, besaß. Zu unserem Erstaunen zeigte dieses Derivat jedoch nach erfolgreicher Synthese nicht das erwartete Verhalten. Ein weiteres Beispiel für die hochgradige Komplexität der Photochemie.
Mit Hilfe von theoretischen und spektroskopischen Methoden konnten dennoch viele hilfreiche Erkenntnisse aus dieser Studie für zukünftige Untersuchungen aufgedeckt werden.
Ebenso war es während meiner Promotion eines der Ziele, den Schaltprozess des sog. Fulgid-Photoschalters genauer zu untersuchen und somit besser zu verstehen. Hierbei handelt es sich um ein ausgesprochen beständiges, photochemisch reversibel schaltbares Molekül, auch wenn dies vielleicht auf den ersten Blick ein Widerspruch in sich zu sein scheint. Es gelang uns diesen Photoschalter, genauer gesagt seine Photo-Isomere, auf dem Gebiet der chemischen Aktinometrie zu etablieren.
Dafür waren zahlreiche Messungen diverser Reaktivitäten (photochemische Reaktions-Quantenausbeuten) in verschiedenste Wellenlängenbereiche vom Nah-UV-Bereich bis hin zur 700 nm Grenze erforderlich. Außerdem wurden alle Werte mit der Referenzmessung einer Photodiode bzw. je nach Wellenlängenbereich auch mit der klassischen Ferri-Oxalat-Aktinometrie verglichen. Im Anschluss daran fokussierte ich mich weiter auf die einzelnen Photo-Isomere und ihre einzigartige chemische Struktur. Mit Hilfe der chiralen HPLC gelang es uns die einzelnen Photo-Isomere voneinander zu isolieren und diese mit verschiedensten photochemischen und theoretischen Methoden „genauer unter die Lupe“ zu nehmen. Die aus dieser Studie gewonnenen Erkenntnisse bereiten den Weg für diverse, zukünftige spektroskopische Anwendungen dieses Photoschalters.
Der erste Teil der vorliegenden Arbeit beinhaltet die funktionelle Analyse von fünf Oberflächenproteinen von B. recurrentis die die Fähigkeit besitzen, die Aktivierung von humanen Komplement zu inhibieren und Borrelien vor Bakteriolyse zu schützen. Im zweiten Teil der Arbeit wurden zwei immunologische Testverfahren mit hoher Sensitivität sowie Spezifität entwickelt und mit zahlreichen Patientenseren evaluiert. Die entwickelten Tests könnten in Zukunft als zuverlässige Instrumente für eine gesicherte Diagnose von LRF eingesetzt werden.
Eine Sequenzanalyse führte zur Identifizierung eines neuen Proteinclusters, welches die fünf untersuchten Komplement-inhibierenden Proteine als „Cluster of Complement-targeting and Host-interacting Proteins“ oder „Chi-Gencluster“, zusammenfasst. Diese Oberflächenproteine wurden als ChiA, ChiB, ChiC, ChiD und ChiE bezeichnet. Weiterführende Sequenzanalysen ergaben, dass das Chi-Gencluster extrem hoch konserviert ist und sowohl in den ersten B. recurrentis-Isolaten aus den 1990er Jahren als auch in B. recurrentis-Stämmen nachgewiesen werden konnte, die 2015 aus Patienten isoliert wurden.
Durch funktionelle Analysen konnte gezeigt werden, dass alle fünf Chi-Proteine in der Lage sind den alternativen und terminalen Komplementweg zu inhibieren. Ebenfalls konnte für die Proteine ChiB, ChiD sowie ChiE nachgewiesen werden, dass die Interaktion mit der Komplementkomponente C5 dosisabhängig verläuft.
Die strukturelle Aufklärung des Proteins ChiB ermöglichte es Aminosäuren zu identifizieren, von denen angenommen wurde, dass sie für die Interaktion mit Komplement eine Rolle spielen könnten. Durch in vitro Mutagenese konnten insgesamt fünf verschiedene Varianten von ChiB generiert werden, die jedoch keine Veränderungen in ihrem Komplement-inhibierenden Potential gegenüber dem unveränderten ChiB-Protein aufwiesen. Weder in der Inhibition des alternativen oder des terminalen Komplementweges, noch in der Interaktion mit den untersuchten Komplementkomponenten C3b, C5 und C9.
Weiter konnte gezeigt werden, dass die lytische Aktivität von Humanserum durch Vorinkubation mit ChiB, ChiC, ChiD und ChiE drastisch reduziert werden konnte, sodass Serum-sensible Borrelienzellen in Gegenwart von Komplement überlebten. „Gain-of-function“ B. garinii-Transformanten, welche mit dem entsprechendem Chi-kodierenden Gen transformiert wurden, bestätigten die mit den gereinigten Proteinen erhobenen Ergebnisse.So konnte nachgewiesen werden, dass ChiB-, ChiC- oder ChiD-produzierende „Gain-of-function“ B. garinii Transformanten, nicht jedoch ChiE- produzierende Zellen, in der Lage waren einen Serum-resistenten Phänotypen auszubilden. Für Transformanten, die zwei-, drei- oder vier Chi-Proteine in verschiedenen Kombinationen gleichzeitig produzierten, konnte allerdings die Fähigkeit in Gegenwart von Humanserum zu überleben nicht bestätigt werden.
Molekulare Analysen mit verschiedenen RF-Borrelienstämmen führten zum Nachweis, dass die fünf Chi-kodierenden Gene bei allen Isolaten vorhanden sind und unter in vitro Bedingungen exprimiert werden. Im Gegensatz zu B. recurrentis PAbJ, ließ sich das HcpA kodierende Gen in B. duttonii LAI nicht nachweisen, jedoch alle dem Chi-Cluster zugehörigen Gene. Bei B. duttoni V fehlte das gesamte Chi-Cluster sowie die für CihC- und HcpA-kodierenden Gene. Durch eine Western Blot-Analyse konnte mit spezifischen Antikörpern bestätigt werden, dass die Proteine CihC, HcpA und ChiB in B. recurrentis A17 unter in vitro Bedingungen produziert wurden.
Im zweiten Teil der vorliegenden Arbeit wurden durch die Analyse der IgM- und IgG-Immunreaktivitäten der LRF-Patientenseren zwei Proteine identifiziert, CihC und GlpQ, die als potenzielle Antigene für die Serodiagnostik des LRF evaluiert wurden. Eine initiale Evaluierung des IgM Lineblot-Immmunoassays zeigte jedoch nur eine geringe Sensitivität für die beiden Antigene, während der IgG Lineblot-Immunoassay eine sehr hohe Sensitivität aufwies. Der ELISA hingegen zeigte bei einer Kombination beider Antigene sehr gute Sensitivitäten und Spezifitäten. Um die starke Hintergrundfärbung bei den Lineblot-Immunoassays, welche eine korrekte Bewertung der Reaktivitäten gegenüber CihC erheblich erschwerten, zu minimieren, wurde ein „Epitop-Mapping“ durchgeführt, um immunogene Regionen innerhalb des CihC-Proteins zu lokalisieren. Eine zweite Evaluierung mit dem immunreaktiven N-terminalen CihC-Fragment CihC-N führte zu einer deutlichen Verbesserung der IgG Lineblot-Immunoassays mit einer Sensitivität von 100 % und einer starken Reduktion der Hintergrundfärbung. Zusätzlich konnte die Sensitivität der IgM-ELISA deutlich verbessert werden. Die Verwendung von CihC-N führte beim IgG-ELISA zur Herabsetzung des Cut-off-Wertes und zu einer besseren Unterscheidung zwischen den positiven LRF-Seren und den verwendeten Kontrollseren. Im Rahmen dieser Arbeit konnten somit zwei serologische in vitro Diagnostika entwickelt werden, die als zuverlässige Point-of-Care-Diagnostik in klinischen Studien eingesetzt werden könnten. Zur Steigerung der Sensitivität des IgM-Lineblot-Immunoassays sollten allerdings weiterführende Untersuchungen mit weiteren immunreaktiven Antigenen, wie z.B. den Vmp-Proteinen von B. recurrentis, angestrebt werden.
Der Begriff der Kompetenz ist allgegenwärtig und wird fast schon inflationär eingesetzt, um beispielsweise Qualität und Wertigkeit einer Dienstleistung oder eines Produktes hervorzuheben, sowie häufig verwendet, um eine besondere Bedeutung und hohe Leistungsfähigkeit zu vermitteln.
Innerhalb des formalisierten schulischen, aber auch des beruflichen und des universitären Bildungssystems nimmt der Kompetenzbegriff, nachdem er aufgrund seiner Popularität den Begriff der Schlüsselqualifikation ablöste, eine zentrale Stellung ein. Kompetenzorientierter Unterricht soll nicht nur dafür sorgen, dass Deutschland im internationalen Vergleich schulischer Bildungsergebnisse besteht, sondern auch ermöglichen, dass Bildung und Ausbildung an gesellschaftlichen Erfordernissen und individuellen Voraussetzungen gleichermaßen ausgerichtet werden können.
In der Kunstpädagogik ist die Kompetenzorientierung nicht unstrittig. Zwischen dem Begrüßen als Möglichkeit des Anschlusses an internationale Bildungsstandards und der vehementen Ablehnung als Versuch der Ökonomisierung und Technokratisierung von Bildungsprozessen sind nur wenige Alternativen auszumachen, die eine fachspezifische Aneignung und Reformulierung des Begriffs beabsichtigen.
Die hier vorliegende Forschungsarbeit untersucht die Anwendung, Schulung und Erweiterung von Kompetenzen in einem bildnerischen Projekt in der Jugendhilfe, einem Teilbereich der Sozialen Arbeit. In außerschulischen Bildungskontexten wird der Begriff der Kompetenz bislang noch wenig rezipiert. Was nicht zuletzt daran liegt, dass Handlungsfelder außerhalb formalisierter Lernsettings lange nicht als einflussreiche Bildungsorte in den Blick genommen wurden. Erst langsam beginnt sich eine Forschung zu etablieren, die Bildung in Bezug auf die gesamte Lebenswelt versteht. Dabei werden Kompetenzen ähnlich wie im schulischen Bildungssystem oftmals auf vermittelbare Wissensbestände, Fertigkeiten oder methodische Vorgehensweisen bezogen und somit vor allem kognitiv und domänenspezifisch bestimmt. Ein weiter gefasstes Verständnis begreift Kompetenz jedoch als Fähigkeit, subjektiv erfolgreich mit der Umwelt zu interagieren, wobei diese Fähigkeit in der Interaktion ausgebildet und modifiziert wird. Mit diesem Verständnis lassen sich auch motivationale und volitionale Aspekte integrieren.
Kompetenz wird damit als eine sowohl sachliche als auch soziale und personale Bestandteile beinhaltende Befähigung zur Lebensbewältigung betrachtet, die auf eine weitestgehende Selbstbestimmung abzielt und ein auf die Zukunft gerichtetes Handeln ermöglicht. Kompetenz ist damit nicht nur als Folge oder Ergebnis von Bildungsprozessen anzusehen, die in der erwünschten Form und Ausprägung entwickelt werden sollen. Kompetenz kann vielmehr als eine dem Individuum eigene Befähigung angesehen werden, die in Bildungsprozessen subjektiv sinnhaft aktiviert, weiter ausgebildet und verändert wird. Damit geraten sowohl die subjektiven Sinnstrukturen als auch die soziokulturellen Kontexte, in denen Kompetenz als Bewältigungskönnen ausgebildet werden muss, stärker in den Blick.
Chronisch-entzündliche Dermatosen sind in Deutschland weit verbreitet und haben einen enormen Einfluss auf die Lebensqualität der Erkrankten. Das umfassende Verständnis der molekularen Prozesse und Signalwege bildet die Basis, um mögliche Beziehungen zwischen den Hauterkrankungen aufzudecken. Der Nachweis von Ähnlichkeit und Übereinstimmung in den Signalwegen bietet die Aussicht, dass etablierte Therapien auch bei anderen Erkrankungen helfen können.
Der Zweck dieser Arbeit ist der Nachweis der Expression von IL-1β, IL-17A, IL-22, IL-23 und TNF-α in drei chronisch-entzündlichen Dermatosen: Acne inversa (AI), Sinus pilondalis (SP) und Perifolliculitis capitis abscedens et suffodiens (PCAS). Bei allen untersuchten Diagnosen handelt es sich um potentiell verwandte Erkrankungen der Haarfollikel, die durch Verlegung der Ausführungsgänge zu ausgedehnten Entzündungsreaktionen mit Bildung von Knoten, Abszessen und Fisteln führen. Bereits nachgewiesen ist, dass IL-1β, IL-17A, IL-22, IL-23 und TNF-α eine wichtige Rolle in der Pathogenese von Acne inversa spielen und Antikörpertherapien an einigen dieser Zielproteine spezifisch angreifen, um den Verlauf der Erkrankung zu verbessern.
Die Expression der Proteine wurde in Läsionen von Patienten mit den drei Indikationen immunhistochemisch an paraffiniertem Gewebe untersucht. Wie erwartet, zeigten sich in der überwiegenden Anzahl der Proben große entzündliche Infiltrate und hier wurde die Expression aller untersuchten Zytokine in unterschiedlicher Intensität nachgewiesen. Vielversprechend war insbesondere die Expression von IL-17A und IL-23 in SP und PCAS. Die Expression von IL-1β war insgesamt eher gering ausgeprägt; bei AI noch etwas höher als in SP und PCAS. Die Färbungen auf IL-22 zeigten sich kräftig in allen untersuchten Dermatosen. Allerdings gibt es bisher keine zugelassene Therapie zur Modulation dieses speziellen Zytokins. IL-22 scheint eine zentrale Rolle in
der Pathogenese der AI zu spielen. Mit TNF-α-Blockern wurden schon gute therapeutische Ergebnisse bei AI und PCAS erzielt. Deshalb ist der Nachweis von TNF-α in den entzündlichen Läsionen zu erwarten gewesen. Auch bei den SP-Proben fanden sich deutlich erhöhte Protein-Level, sodass auch hier eine gezielte Therapie von Vorteil sein könnte. Wegen des geringen Probenumfangs und der Methodik sind weitere gezielte Untersuchungen notwendig. Dennoch konnten viele Gemeinsamkeiten der Zytokinexpression ausgemacht werden, was vielversprechende Hinweise auf mögliche Behandlungsansätze bei AI, SP und PCAS zulässt. Diese Arbeit bietet einen ersten Blick auf den immunologischen Phänotyp der verwandten Dermatosen.
Die Digitalisierung weiter Teile der Lebenswelt ist vor allem mit der Verbreitung und extensiven Nutzung des Smartphones verknüpft. Eine Mehrzahl der älteren Menschen in Deutschland nutzt Smartphones selbstverständlich im Alltag. Die vorliegende Studie adressiert erstens wie stark sich das Smartphone bereits in den Alltag älterer Menschen als vergleichsweise neue Technologie eingeschrieben hat. Im Mittelpunkt steht dabei, welche Funktionen genutzt werden, wie oft und wann zum Smartphone gegriffen wird und welche Gemeinsamkeiten und Unterschiede in der Nutzung identifizierbar sind. Darüber hinaus wird zweitens der Zusammenhang zwischen alltäglicher Smartphonenutzung, Medienkompetenz und technikbezogenen Einstellungen in den Blick genommen. Drittens geht die Studie der Frage nach inwiefern die Smartphonenutzung mit zentralen Variablen der Lebensqualität im Alter, der sozialer Eingebundenheit sowie dem subjektiven Wohlbefinden assoziiert ist. Die vorliegende Arbeit ist eine quantitativ empirische Studie, die einem mikrolängsschnittlichem Design folgt. Zur Beantwortung der Forschungsfragen wurden objektive Nutzungsdaten, Daten aus einem ambulanten Assessment sowie Daten eines querschnittlichen Fragebogens kombiniert. Die Ergebnisse zeigen, dass die Befragten älteren Menschen im Hinblick auf Nutzungsdauer, -intensität als auch inhaltlicher Vielfalt hohe inter- als auch intraindividuelle Unterschiede aufwiesen. Gemeinsamkeiten der Nutzung waren die Kommunikation oder Alltagsorganisation. Das Smartphone wurde aber auch zum Spielen oder für gesundheitsbezogene Handlungen genutzt. Gleichzeitig ging eine zeitlich intensive auch mit einer inhaltlich breit gefächerten Nutzung einher. Die Unterschiede in der Nutzung konnten primär durch technikbezogene Einstellungen und deklarative Wissensbestände zu Computer und Smartphone erklärt werden. Intensivnutzer wiesen positivere Einstellungen gegenüber Technik auf und verfügten über höhere Wissensbestände. Trotz intensiver Nutzung des Smartphones zur Kommunikation zeigte sich kein klarer Zusammenhang mit sozialer Eingebundenheit und subjektivem Wohlbefinden. Vielmehr konnte in diesem Kontext die wahrgenommene Qualität der erlebten sozialen Beziehungen als zentraler Prädiktor identifiziert werden. Zusammengenommen zeigte sich eine tiefe Integration des Smartphones in den Alltag älterer Smartphonenutzer.
Auf der Oberfläche von Erythrozyten, Thrombozyten und Neutrophilen befinden sich mehrere hundert verschiedene polymorphe, ungekoppelt vererbte Blutgruppenantigene. Dementsprechend birgt jede Bluttransfusion das Risiko einer Immunisierung gegen fremde Blutgruppenmerkmale. Auch während der Schwangerschaft können aufgrund väterlich vererbter Antigene Alloantikörper induziert werden. Deshalb muss das Blut vor jeder Transfusion oder während einer Schwangerschaft auf das Vorhandensein irregulärer erythrozytärer Antikörper untersucht werden. Dabei greifen die aktuellen diagnostischen Verfahren auf primäre, stabilisierte Testerythrozyten von Blutspendern zurück, deren relevante Blutgruppenantigene bekannt sind. Antikörperspezifitäten können anhand von Agglutinationsreaktionen der Testzellen mit dem zu untersuchenden Patientenplasma auf ein oder mehrere Antigene zurückgeführt werden. Ist jedoch ein Antikörper gegen ein häufiges, ein hochfrequentes oder ein nicht-polymorphes, ubiquitäres Antigen gerichtet, kann in Ermangelung Antigen-negativer Testzellen keine adäquate Diagnostik gewährleistet, die Verträglichkeit der Transfusion also nicht definitiv sichergestellt werden. Auch der medizinische Einsatz therapeutischer Antikörper, welche Antigene adressieren, die auch auf Erythrozyten exprimiert werden, führt zunehmend zu Problemen. Tests auf granulozytäre Antikörper sind mangelhaft bezüglich ihrer Robustheit, besitzen eine unzureichende Auflösung und sind zudem meist zeitaufwändig und daher teuer. Antikörper gegen humane Plättchenantigene spielen insbesondere in der Schwangerschaft eine Rolle; sie vermögen bei Neugeborenen thrombozytopenische Blutungen bis hin zu massiven Hirnblutungen zu verursachen, die zu schweren Entwicklungsstörungen führen können. Bisher erfolgt jedoch mangels geeigneter Reagenzien keine standardisierte pränatale Untersuchung auf thrombozytäre Antikörper. In dieser Arbeit wurde ein neuartiges Verfahren für die Identifikation und Differenzierung irregulärer Blutgruppenantikörper etabliert, welches auf gentechnisch hergestellten, xenogenen Testzellen basiert, die einzelne definierte humane Blutgruppenantigene auf ihrer Oberfläche präsentieren. Die nicht humanen Zellen co exprimieren Fluorochrome, anhand derer Antikörper-markierte Testzellen durchflusszytometrisch voneinander unterscheidbar sind. Weiterhin können die generierten Testzellen zur Depletion von Antikörpern aus polyagglutinierenden Plasmen unter Erhalt der anderen Antikörperspezifitäten verwendet werden. Diese Technologie könnte die konventionelle Diagnostik erheblich erleichtern und bietet zudem die Möglichkeit, therapeutische Antikörper (wie z. B. anti-CD38, anti CD47, etc.), die häufig zu Interferenzen mit der Routinediagnostik führen, spezifisch prädiagnostisch aus Patientenproben zu entfernen.
Gastroschisis und Omphalozele zählen zu den häufigsten angeborenen Bauchwanddefekten. Dabei wird zwischen einfacher (ohne sekundäre Darmveränderungen) und komplexer (mit sekundären Darmveränderungen) Gastroschisis unterschieden. Bei der Omphalozele ist es wichtig, ob eine Protrusion der Leber vorliegt. Die Therapie beider Fehlbildungen besteht aus der Reposition der Bauchorgane in den Bauchraum und einem operativen Bauchdeckenverschluss in den ersten Lebenstagen.
Daten zu Langzeitverläufen nach dem operativen Bauchdeckenverschluss, insbesondere in Hinblick auf gastrointestinale Komplikationen mit erneutem chirurgischen Interventionsbedarf, sind in der Literatur rar.
Ziel dieser Studie ist es daher, die Inzidenz und die Art von operativen Eingriffen nach dem Bauchdeckenverschluss bei Patienten mit einer Gastroschisis und einer Omphalozele nach einem Bauchdeckenverschluss am eigenen Patientenkollektiv zu untersuchen. Hierzu wurden die Akten aller Patienten mit Gastroschisis und Omphalozele, die in der Klinik für Kinderchirurgie und Kinderurologie des Universitätsklinikums Frankfurt von 2010 bis 2019 behandelt wurden, retrospektiv ausgewertet. Die Inzidenz von Operationen nach Bauchdeckenverschluss wurde anhand der mittleren kumulativen Ein-Jahres-Anzahl an Operationen pro Patienten und der kumulativen Ein-Jahres-Inzidenz der Operationen ermittelt.
Insgesamt wurden 61 Patienten identifiziert. Nach Ausschluss von vier Patienten (Krankenhausverlegung (ein Patient) und Versterben (drei Patienten)) konnten die Verläufe von 33 Patienten mit Gastroschisis (18 mit einfacher und 15 mit komplexer Gastroschisis) und 24 Patienten mit Omphalozele (je zwölf mit und ohne Leberprotrusion) ausgewertet werden.
Bei 23 Patienten mit Gastroschisis und bei 20 Patienten mit Omphalozele kam es innerhalb des ersten Jahres nach Bauchdeckenverschluss zu erneuten Operationen. Das Risiko sich einer erneuten Operation unterziehen zu müssen, war bei Patienten mit komplexer Gastroschisis signifikant höher als bei Patienten mit einfacher Gastroschisis (kumulative Ein-Jahres-Inzidenz: 64,3% vs. 24,4%; p= 0,05). Zwischen den beiden 6 Formen der Omphalozele bestand kein Unterschied in der Inzidenz chirurgischer Eingriffe. Im Median kam es bei Patienten mit Gastroschisis nach 84 Tagen und bei Patienten mit Omphalozele nach 114,5 Tagen zu einer erneuten Operation.
74% der Patienten mit Gastroschisis und 30% der Patienten mit Omphalozele wurden aufgrund einer gastrointestinalen Komplikation operiert. Die Patienten mit komplexer Gastroschisis hatten im Vergleich zu Patienten mit einfacher Gastroschisis ein signifikant erhöhtes Risiko für eine Operation zur Behandlung einer gastrointestinalen Komplikation (kumulative Ein-Jahres-Inzidenz 64,3% vs. 11,1%; p= 0,015). In Bezug auf die Anzahl der Operationen pro Patienten und Jahr hatten die Patienten mit komplexer Gastroschisis und Patienten mit Omphalozele und Leberprotrusion die meisten operativen Eingriffe (kumulative Ein-Jahres-Anzahl 1,664 und 1,417 vs. einfache Gastroschisis (0,326) und Omphalozele ohne Leberprotrusion (0,333)). Dieses Verhältnis spiegelt sich auch in der kumulativen Ein-Jahres-Anzahl an Operationen mit gastrointestinalen Indikationen wider (komplexe Gastroschisis: 1,462 Operationen; Omphalozele mit Leberprotrusion: 0,500 Operationen; einfache Gastroschisis: 0,111 Operationen; Omphalozele ohne Leberprotrusion: keine Operation)
Nach dem Bauchdeckenverschluss kam es zu zwei Todesfällen bei Patienten mit komplexer Gastroschisis und zu drei Todesfällen bei den Patienten mit Omphalozele und Leberprotrusion. Bei den beiden Patienten mit komplexer Gastroschisis lag eine gastrointestinale Ursache vor (Leberversagen, Dünndarmvolvulus). Die Patienten mit der Omphalozele verstarben aufgrund assoziierter kardialer und pulmonaler Erkrankungen. Die Daten zeigen, dass Patienten mit Gastroschisis und Omphalozele im ersten Lebensjahr nach dem Bauchdeckenverschluss ein hohes Risiko für weitere Operationen haben. Patienten mit komplexer Gastroschisis und mit einer Omphalozele und Leberprotrusion haben das größte Risiko für eine erneute Operation nach Bauchdeckenverschluss. Bei Patienten mit einfacher Gastroschisis und Omphalozele ohne Leberprotrusion ist dieses Risiko gering. Die Mehrzahl der Operationen erfolgt aufgrund von gastrointestinalen Ursachen. Nur bei Patienten mit komplexer Gastroschisis tragen gastrointestinale Komplikationen zu einer erhöhten Mortalitätsrate bei. Die Ergebnisse dieser Arbeit können für Aufklärungs- und Beratungsgespräche von Eltern von Kindern mit Gastroschisis und Omphalozele herangezogen werden.
Das Verständnis von Tumorerkrankungen wurde durch neue technologische und ökonomische Verbesserungen für die Next-Generation-Sequencing Analyse (NGS) gefördert. Die Komplexität der Interpretation genomischer Daten erschwert jedoch die Anwendung von NGS-Analysen im klinischen Kontext. Die Herausforderung besteht darin bei stetig wachsendem medizinischem Wissen dieses im klinischen Kontext zu interpretieren und eine personalisierte Therapieempfehlung abzugeben. Einen ressourcensparenden Ansatz können KI-unterstützende Software-Programme bieten, welche die genomischen Varianten mit der aktuellen Literatur vergleichen, eine Bewertung der Therapieoptionen geben und klinische Studien empfehlen können. In dieser retrospektiven Arbeit wurden Patient:innen mit metastasiertem Brustkrebs (n=77) mittels gezielter NGS-Analyse anhand von sogenannten Genpanels mit 126 bzw. 540 krebsrelevanten Genen im Zeitraum von 01/2019-02/2022 untersucht. Mit Hilfe von bioinformatischen Methoden wurden patientenspezifische genomische Veränderungen mit Behandlungsoptionen abgeglichen. Diese Methoden stützen sich vollständig auf öffentliche Datenbanken über somatische Varianten mit prädiktiver Evidenz für das Ansprechen auf bestimmte Medikamente. Diese Versorgungsforschung einer repräsentativen Kohorte des Universitätsklinikums Frankfurt in Kooperation mit Regionalverbund OncoNet Rhein-Main wurden systematisch ausgewertet inklusive der Bedeutung genomischer Varianten. Das OncoNet Rhein-Main ist eine Kooperation aus führenden onkologischen Zentren und Praxen im Rhein-Main-Gebiet, welche sich als Netzwerk der Aufgabe angenommen haben Patient:innen optimal therapeutisch zu versorgen. Für 51% (39/77) der Patient:innen konnte mindestens eine gezielte Therapieoption mit einem effektivem Biomarker im gleichen Tumortyp gemäß Zulassung der Europäischen Arzneimittelbehörde (EMA) gefunden werden.
Bei 12/77 (16%) wurde mindestens eine Alteration mit einem effektivem Biomarker und einer OFF-Label Therapieoption gefunden. Bei 30% der Patient:innen wurden Veränderungen in optionalen Biomarkern gefunden, welche Resistenzmechanismen erklären. Die umfassende molekulare Analyse von Patient:innen mit fortgeschrittenem Brustkrebs erlaubt die Behandlungsoption zu verbessern und ermöglicht durch die Analyse von bekannten Resistenzmarkern auch den klinischen Verlauf besser zu verstehen. Die interdisziplinäre Besprechung der Befunde im molekularem Tumorboard ist im Hinblick auf kontinuierliches Lernen aller Beteiligten sowie zur Qualitätssicherung eine entscheidende obligate Maßnahme.
Im Rahmen dieser Arbeit wurde die schnelle Energietransfer- (EET) und Elektronentransfer (ET)-Dynamik unterschiedlichster Quantenpunkte (QD) spektroskopisch untersucht. Die untersuchten Systeme bestanden in den meisten Fällen aus Donor-Akzeptor-Paaren, bei denen die Halbleiternanokristalle als Donor fungierten. Der Fokus lag dabei auf der gezielten Anpassung des Donors, um die optimale Funktionalität zu erreichen. Die Untersuchung der Nanokristalle erstreckte sich daher von einfachen Kernen über verschiedene Kern-Schale-Partikel bis hin zu völlig anderen Strukturen wie Nanoplatelets (NPL). Als Akzeptor wurden eine Vielzahl von Molekülen verwendet, die sich als Elektronen- und/oder Energieakzeptoren für die verschiedenen QDs eignen.
Magnetische Quadrupole und Solenoide sind ein elementarer Bestandteil einer Beschleunigeranlage und begrenzen die transversale Ausdehnung eines Teilchenstrahls durch eine Reflexion der Teilchen in Richtung der Beschleunigerachse. Die konventionelle Bauweise als Elektromagnet besteht aus einem Eisenjoch welches mit Spulen umwickelt ist. In dieser Arbeit werden diese Magnetstrukturen auf Basis von Permanentmagneten designt und hinsichtlich ihrer Qualität zum Strahltransport optimiert, sowie Feldmessungen an permanentmagnetischen Quadrupolen durchgeführt. Diese wurden mit 3D-gedruckten Halterungen aus Kunststoff gefertigt, was eine Vielzahl von Formvariationen ermöglicht. Darauf aufbauend wurde ein im Vakuum befindlicher Aufbau entwickelt, mit welchem die Strahlenvelope im inneren eines permanentmagnetischen Quadrupol Tripletts diagnostiziert werden kann. Dies greift auf ein am Institut für angewandte Physik entwickeltes System zur nicht-invasiven Strahldiagnose mithilfe von Raspberry Pi Einplatinencomputern und Kameras in starken Magnetfeldern zurück.
Die in dieser Arbeit vorgestellte Konfiguration eines PMQ’s ist eine Weiterentwicklung des am CERN im Linac4, einem Alvarez-Driftröhrenbeschleuniger zur Beschleunigung von H– , verwendeten Designs. Bei diesem sind je acht quaderförmige Permanentmagnete aus Samarium Cobalt (SmCo) in die Driftröhren des Beschleunigers integriert.
Darauf aufbauend wurden die geometrischen Designparameter hinsichtlich ihres Einflusses auf die Qualität des Magnetfelds untersucht. In einem magnetischen Quadrupol zur Strahlfokussierung wird dies durch einen linearen Anstieg des Magnetfeldes von Quadrupolachse zu Polflächen charakterisiert. Das Design wurde im Zuge dessen zur Verwendung von industriellen Standardgeometrien von Quadermagneten und der Erhöhung der magnetischen Flussdichte erweitert. Dazu wurde untersucht wie sich das Hinzufügen von zusätzlichen Magneten auswirkt und ob eine bessere Feldqualität durch andere Magnetformen erreicht wird.
Die Kombination mehrerer PMQ in geringem Abstand (<10 mm) führt abhängig von der Geometrie der PMQ-Singlets zu einer erheblichen Verschlechterung der Feldlinearität, was eine Erhöhung des besetzten Phasenraumvolumens der Teilchen nach sich zieht.
Am Beispiel von PMQ-Tripletts werden die zu beachtenden Designparameter analysiert und Lösungsansätze vorgestellt. Die auftretenden Effekte werden anhand von Strahldynamiksimulation veranschaulicht. Für eine Anwendung der vorgestellten Designs wurde eine Magnethülle mit einer Wabenstruktur zur Aufnahme der Einzelmagnete entwickelt. Diese besteht aus zwei Halbschalen, welche jeweils den Kompletteinschluss aller Magnete garantiert und eine einfache Montage um ein Strahlrohr ermöglicht. Diese wurden in der Institutswerkstatt aus Kunststoff via 3D-Druck gefertigt. Aufgrund der höheren erreichbaren Magnetisierung wurden Neodym-Eisen-Bor-Magnete (Nd2F14B, Br =1,36 T) für den Bau der entwickelten Strukturen verwendet. Für eine Magnetfeldmessung zur Bestätigung der magnetostatischen Simulationen und einer Bewertung der Druckqualität wurde eine motorisierte xyz-Stage zur Bewegung einer Hallsonde aufgebaut. Die Messungen zeigen eine gute Zentrierung des Magnetfeldes, sodass PMQ mit einer Kunststoffhalterung eine schnelle und billige Möglichkeit sind, kurzfristig eine Quadrupol-Konfiguration aufzubauen. Die Kosten belaufen sich für einen einzelnen PMQ je nach Länge auf 50€ bis 100€.
Basierend auf der PMQ-Struktur wurde ein PMQ-Triplett in ein Vakuum versetzt und mit Raspberry Pi Kameras im Zwischenraum der Singlets ausgestattet. Dies ermöglichte die Aufnahme der Strahlenvelope innerhalb des Tripletts anhand der durch einen Heliumstrahl induzierten Fluoreszenz und erste Erkenntnisse für notwendige Weiterentwicklungen wurden gesammelt. Auf den genauen technischen Aufbau wird im abschließenden Kapitel der Arbeit detailliert eingegangen.
In der einfachsten Form wird ein PM-Solenoid anhand eines einzelnen axial magnetisierten Hohlzylinders realisiert und erzeugt näherungsweise die Feldverteilung einer Zylinderspule. Durch die radialen Magnetfeldkomponenten an den Rändern des Solenoiden erhalten Teilchen eine tangentiale Geschwindigkeitskomponente und führen eine Gyrationsbewegung entlang der Solenoidachse aus. Diese reduziert den Strahlradius und die Teilchen behalten eine Geschwindigkeitskomponente, welche zur Solenoidachse zeigt. Für eine Maximierung dieser Fokussierung muss das Magnetfeld auf die Zylinderachse konzentriert werden. Insbesondere bei einer Verlängerung des Hohlzylinders wird die Kopplung der Polflächen über das Innenvolumen abgeschwächt. Aufgrund dessen wurde ein Design bestehend aus drei Hohlzylindersegmenten entwickelt. Dieses setzt sich aus zwei radial und einem axial magnetisierten Hohlzylinder zusammen und erhöht die mittlere magnetische Flussdichte für ausgewählte Geometrien um einen Faktor zwei im Vergleich zu einem einzelnen Hohlzylinder gleicher Geometrie. Dies ist gleichzusetzen mit einer Vervierfachung der Fokussierstärke, welche quadratisch mit der mittleren magnetischen Flussdichte skaliert. Die Strahldynamischen Konsequenzen werden anhand von Simulationen mit generierten Magnetfeldverteilungen erläutert. Für eine kostengünstige Bauweise wurde eine Design basierend auf quaderförmigen Magneten entwickelt.