Refine
Year of publication
Document Type
- Doctoral Thesis (5741) (remove)
Language
- German (3643)
- English (2069)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Is part of the Bibliography
- no (5741)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- ALICE (9)
Institute
- Medizin (1531)
- Biowissenschaften (836)
- Biochemie und Chemie (729)
- Physik (597)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (311)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (111)
- Psychologie (97)
Die genaueste Darstellung der anatomischen Verhältnisse und pathologischer Veränderungen der Prostata gelingt durch den Einsatz einer Kombination von einer Endorektal und Phased-Array-Oberflächenspule, wie sie auch für die Untersuchungen im Rahmen der vorliegenden Studie verwandt wurde (95; 96). In 70 – 80 % aller Fälle entsteht das Prostatakarzinom in der peripheren Zone (24; 33; 51; 93) und führt in der MRT zu einer charakteristischen Signalabsenkung (24). Prostatakarzinomherde von weniger als 4 mm Größe können in der MRT nicht zuverlässig erkannt werden (83), und andere Krankheitsprozesse können prostatakarzinom-ähnliche Veränderungen in der peripheren Zone hervorrufen, da sie ebenfalls zu Signalabsenkungen führen (42). In diesem Zusammenhang ist die chronische granulomatöse Prostatitis ebenso zu nennen wie BPH-Knoten in der periphere Zone oder eingeblutete bzw. narbig veränderte Bezirke bei Zustand nach Prostatabiopsie (24; 33; 42; 93). Außer in Fällen mit eindeutiger makroskopischer Kapselüberschreitung, die in der MRT relativ sicher identifiziert werden kann, bleibt die Interpretation einer signalabgesenkten Läsion in der peripheren Zone in gewissem Maße subjektiv. Ein exaktes Staging des Prostatakarzinoms ist für eine Therapieentscheidung unerlässlich, da davon abhängt, ob eine kurative radikale Prostatektomie durchgeführt werden kann oder nicht. Die Diagnose eines Prostatakarzinoms wird nach wie vor am einfachsten und kosteneffektivsten durch die Kombination von Messung des Serumwertes des Prostata-spezifischen Antigens (PSA), digitaler rektaler Untersuchung (DRE) und durch transrektalen Ultraschall (TRUS) gesteuerter Biopsie gestellt (69). Mithilfe der histologischen Untersuchung von Biopsiematerial kann sowohl die Ausdehnung des neoplastischen Prozesses als auch der Malignitätsgrad des Karzinoms durch Ermittlung des so genannten Gleason-Scores abgeschätzt werden. Im Gegensatz zu diesen klaren diagnostischen Richtlinien wird die Auswahl des Therapieverfahrens nach wie vor kontrovers diskutiert, da die Erkrankung einen langsamen, subklinischen Verlauf nehmen kann und weil keine eindeutigen Richtlinien über das dem jeweiligen Karzinomstadium angemessene Therapieverfahren existieren. Zusammenfassend lässt sich sagen, dass die TRUS mit Biopsieentnahme eine Hauptrolle in der Diagnostik des Prostatakarzinoms spielt, beim lokalen Staging jedoch die MRT einen entscheidenden Beitrag zur Beantwortung der Frage leisten kann, ob ein Karzinom auf die Prostata beschränkt ist oder die Organgrenzen bereits überschritten hat. Das weitere Schicksal von Patienten mit unklarem klinischen Befund kann also wesentlich vom korrekten und rechtzeitigen Einsatz der Magnetresonanztomografie abhängen, die beim Staging des Prostatakarzinoms die höchste Genauigkeit aller Untersuchungsmodalitäten bietet, wenn sie mit hoher Bildqualität durchgeführt wird und die Befundung der Bilder durch einen erfahrenen Radiologen erfolgt. In der vorliegenden Doktorarbeit wurden die MRT-Bilder von 81 Patienten mit histologisch gesichertem Prostatakarzinom vor einer radikalen Prostatektomie retrospektiv analysiert. Bei den MRT-Bildern, die in dieser Arbeit analysiert wurden, handelte sich um die T2-gewichtete MRT-Bilder. Auf T2-gewichteten Bildern zeigt die periphere Zone ein homogen helles Signal, das mit der dünnen außen liegenden signalarmen Prostatakapsel kontrastiert. Nach innen ist eine Abgrenzung zur in gemischter Signalintensität dargestellten Pseudokapsel, der zentralen Zone und der Übergangszone möglich (33; 36; 56). Diese T2-gewichteten MRT-Bilder wurden anhand folgender MRT-Kriterien analysiert: * Obliteration des rektoprostatischen Winkels * Irregulär konturierte Kapsel * Großflächiger Kontakt des Tumors zur Prostatakapsel * Asymmetrische Darstellung des neurovaskulären Bündels Bereits in vorhergehenden Studien wurden diese MRT-Kriterien von verschiedenen Autoren untersucht, wie z. B. von Yu et al (95). In dieser Studie wurden die Obliteration des rektoprostatischen Winkels und die Asymmetrie des neurovaskulären Bündels als diejenigen Parameter identifiziert, die die größte Aussagekraft für ein extrakapsuläres Wachstum besitzen. Bei allen Patienten wurden zusätzlich die klinischen Parameter „ präoperativer PSAWert “ und „bioptischer Gleason-Score“ telefonisch von den überweisenden Urologen ermittelt und in die Gesamtanalyse mit einbezogen. Mittels ROC-Analysen wurden optimale Grenzwerte des bioptischen Gleason-Scores und des präoperativen PSA-Wertes zur Unterscheidung eines T3 von einem T2-Tumor ermittelt. Durch Berechnung einer vorwärts gerichteten logistischen Regression wurden dann diejenigen Parameter ermittelt, die einen signifikant unabhängigen Beitrag zur Vorhersage des Tumorstadiums leisten. Als Resultat unserer Arbeit konnte gezeigt werden, dass die "Obliteration des rektoprostatischen Winkels" als radiologischer Parameter und "ein bioptischer Gleason-Score" von größer oder gleich 7 signifikant unabhängige Prädiktoren eines kapsel-überschreitenden Wachstums vom Prostatakarzinom darstellen. Die übrigen von uns analysierten Parameter leisteten darüber hinaus keinen weiteren Beitrag zum präoperativen Staging. Aufgrund des Ergebnisses der vorliegenden Arbeit ist es in Zukunft möglich, das MRT-basierte Staging des Prostatakarzinoms zu standardisieren und somit robuster zu gestalten. Aufgrund der reduzierten Parameter ergibt sich zudem eine erhebliche Vereinfachung der Bildanalyse.
Diese Arbeit beschäftigt sich mit der Frage, ob Schmerzschwellen für unterschiedliche Stimuli voneinander unabhängige Aspekte des Schmerzes oder ein gemeinsames Phänomen messen. In ersterem Fall würden unterschiedliche Reize benötigt, um die Schmerzempfindlichkeit eines Individuums vollständig zu charakterisieren. In letzterem Fall wären verschiedene Reize hierzu überflüssig, wobei sie allerdings dafür verwendet werden könnten, Summen-Scores aus den verschiedenen Schmerzmodalitäten zu errechnen. Für diese Arbeit wurden bei 45 gesunden Männern und 32 gesunden Frauen (im Alter von 20-44 Jahren) Schmerzschwellen für mehrere Reize (Wärme, Wärme / Capsaicin, Kälte, Kälte / Menthol, stumpfer Druck, 5-Hz Wechselstrom (0-20 mA), spitzer Druck (von Frey-Haare), und von Frey-Haare / Capsaicin) gemessen. Diese Schmerzschwellen waren signifikant miteinander korreliert. Eine daraufhin durchgeführte Hauptkomponentenanalyse ergab, dass die Varianz der Schmerzschwellen mehr auf die Unterschiede zwischen den Subjekten zurückzuführen ist (variance estimate: 0,393), als auf die Unterschiede der Schmerzreize bei jeweils einem Subjekt (variance estimate: -0,008). Unter den drei wichtigsten Hauptkomponenten der Korrelationsmatrix mit Eigenwerten > 1, erklärte die größte 48% der Varianz der Schmerzschwellen, wobei sie starke Ladungen von allen Schmerzreizen erhielt, was für eine starke gemeinsame Varianzquelle spricht. Nur zwei kleinere Hauptkomponenten, die jeweils weniger als 14% der gesamten Varianz erklären, deuten auf eine weitere Differenzierung der Schmerzarten hin. Das Muster von Ähnlichkeiten und Unterschieden innerhalb dieser Komponenten stimmt jedoch mit bereits bekannten molekularen Mechanismen der Nozizeption überein. Dies führt zu dem Schluss, dass die Charakterisierung einer Person als allgemein schmerzempfindlich oder schmerzunempfindlich, zumindest auf Schmerzschwellen-Ebene, gerechtfertigt erscheint. Außerdem befasst sich diese Arbeit mit der Frage, ob Sensibilisierungsverfahren, wie sie in der experimentellen Schmerzforschung zum Einsatz kommen, zusätzliche qualitative Komponenten bei der Schmerzmessung hinzufügen, sodass eine andere Art von Schmerz entsteht, oder ob die Sensibilisierung sich auf quantitative Veränderungen beschränkt, die sich ausschließlich in einer höheren Intensität der gleichen Schmerzart äußert. Hierfür wurde das Probandenkollektiv vergrößert (insgesamt 69 Männer und 56 Frauen im Alter von 18 bis 46 Jahren), indem die o. g. Schmerzmessungen bei weiteren Testpersonen durchgeführt wurden. Für die nachfolgende Analyse wurden nur Daten von den Schmerzmodellen Hitze, Kälte und von Frey-Haare, jeweils mit und ohne Capsaicin- bzw. Menthol-Sensibilisierung verwendet. Die Ergebnisse zeigen, dass die Sensibilisierung den Anteil derjenigen Werte in den Daten verringert, an denen die Schmerzschwelle das technische Limit des Modellversuchs von 52,5°C bzw. 0°C bzw. 300 g von Frey, erreicht. Die Anzahl der Probanden, die diese Werte erreichten, wurde von 38 auf 21 Patienten beim von Frey-Haar-Versuch und von 30 auf 19 Patienten mit Kälte-Versuch (χ exp 2 -Tests: P < 0,001) verringert, während die Schmerzschwellen beim Hitze-Versuch nie das technische Maximum erreichten. Bei den 75 Patienten ohne Werte am technischen Limit senkte die Capsaicin-Sensibilisierung die Hitze-Schmerzschwelle von 44,7 ± 2,1°C auf 36,8 ± 3,3°C und die von Frey-Schmerzschwelle von 78,2 ± 74g auf 33,9 ± 37,8g. Die Menthol-Sensibilisierung senkte die Kälte-Schmerzschwelle von 13 ± 8,4°C auf 19,3 ± 9,2°C (Paarvergleiche: alle P < 0,001). Für jedes Schmerzmodell konnte durch eine Hauptkomponentenanalyse nur je eine einzige Hauptkomponente mit einem Eigenwert > 1 identifiziert werden, die jeweils 64,8%, 84,8% und 94,4% der gesamten Varianz für Hitzeschmerz, von Frey-Haar-Schmerz bzw. Kälteschmerz erklärt, was darauf hinweist, dass die Schwellen für nicht sensibilisierten und sensibilisierten Schmerz eine gemeinsame Varianzquelle haben. Daraus kann geschlossen werden, dass die Hauptwirkung der Sensibilisierung in einer quantitativen Abnahme der thermischen und mechanischen Schmerzschwelle besteht, wodurch die technisch mögliche maximale Reizintensität weniger oft erreicht wird. In der vorliegenden statistischen Analyse findet sich kein Anhalt für eine qualitative Änderung des Schmerzes durch die Sensibilisierung auf Ebene der primären Hyperalgesie.
Paging is one of the most prominent problems in the field of online algorithms. We have to serve a sequence of page requests using a cache that can hold up to k pages. If the currently requested page is in cache we have a cache hit, otherwise we say that a cache miss occurs, and the requested page needs to be loaded into the cache. The goal is to minimize the number of cache misses by providing a good page-replacement strategy. This problem is part of memory-management when data is stored in a two-level memory hierarchy, more precisely a small and fast memory (cache) and a slow but large memory (disk). The most important application area is the virtual memory management of operating systems. Accessed pages are either already in the RAM or need to be loaded from the hard disk into the RAM using expensive I/O. The time needed to access the RAM is insignificant compared to an I/O operation which takes several milliseconds.
The traditional evaluation framework for online algorithms is competitive analysis where the online algorithm is compared to the optimal offline solution. A shortcoming of competitive analysis consists of its too pessimistic worst-case guarantees. For example LRU has a theoretical competitive ratio of k but in practice this ratio rarely exceeds the value 4.
Reducing the gap between theory and practice has been a hot research issue during the last years. More recent evaluation models have been used to prove that LRU is an optimal online algorithm or part of a class of optimal algorithms respectively, which was motivated by the assumption that LRU is one of the best algorithms in practice. Most of the newer models make LRU-friendly assumptions regarding the input, thus not leaving much room for new algorithms.
Only few works in the field of online paging have introduced new algorithms which can compete with LRU as regards the small number of cache misses.
In the first part of this thesis we study strongly competitive randomized paging algorithms, i.e. algorithms with optimal competitive guarantees. Although the tight bound for the competitive ratio has been known for decades, current algorithms matching this bound are complex and have high running times and memory requirements. We propose the algorithm OnlineMin which processes a page request in O(log k/log log k) time in the worst case. The best previously known solution requires O(k^2) time.
Usually the memory requirement of a paging algorithm is measured by the maximum number of pages that the algorithm keeps track of. Any algorithm stores information about the k pages in the cache. In addition it can also store information about pages not in cache, denoted bookmarks. We answer the open question of Bein et al. '07 whether strongly competitive randomized paging algorithms using only o(k) bookmarks exist or not. To do so we modify the Partition algorithm of McGeoch and Sleator '85 which has an unbounded bookmark complexity, and obtain Partition2 which uses O(k/log k) bookmarks.
In the second part we extract ideas from theoretical analysis of randomized paging algorithms in order to design deterministic algorithms that perform well in practice. We refine competitive analysis by introducing the attack rate
parameter r, which ranges between 1 and k. We show that r is a tight bound on the competitive ratio of deterministic algorithms.
We give empirical evidence that r is usually much smaller than k and thus r-competitive algorithms have a reasonable performance on real-world traces. By introducing the r-competitive priority-based algorithm class OnOPT we obtain a collection of promising algorithms to beat the LRU-standard. We single out the new algorithm RDM and show that it outperforms LRU and some of its variants on a wide range of real-world traces.
Since RDM is more complex than LRU one may think at first sight that the gain in terms of lowering the number of cache misses is ruined by high runtime for processing pages. We engineer a fast implementation of RDM, and compare it
to LRU and the very fast FIFO algorithm in an overall evaluation scheme, where we measure the runtime of the algorithms and add penalties for each cache miss.
Experimental results show that for realistic penalties RDM still outperforms these two algorithms even if we grant the competitors an idealistic runtime of 0.
Durch die weltweite Verbreitung von bakteriellen Resistenzgenen wie der Carbapenemase New-Delhi-Metallo-β-Laktamase (NDM), die nahezu alle Beta-Laktamantibiotika spalten kann, und die langwierige Entwicklung neuer Antibiotika, hat die Erforschung von Resistenzdeterminanten eine hohe Priorität. In der vorliegenden Arbeit wurde die neu entdeckte Variante NDM 16b unter epidemiologischen Gesichtspunkten, mit einem in vivo Infektionsmodell sowie die Interaktion von NDM-Varianten mit dem menschlichen Komplementsystem untersucht.
Im ersten Teil der Arbeit erfolgte eine epidemiologische Datenerhebung für 60 blaNDM tragende Patientenisolate des Zeitraums 2007 - 2017 auf Basis klinikinterner Datenbanken zu multiresistenten Erregern und zudem eine quantitative Empfindlichkeitstestung für 13 (Reserve-)Antibiotika. Es fiel eine kontinuierliche Zunahme an NDM-Isolaten und insbesondere von NDM-Varianten mit der Punktmutation M154L auf, da diese Mutation eine erhöhte Hydrolaseaktivität vermittelt. Deutlich erkennbar war eine Korrelation der M154L-Varianten und E. coli. Im Resistenzprofil der blaNDM-positiven Isolate zeigten sich hohe Resistenzraten (> 94%) gegen alle Beta-Laktam-Antibiotika und Fluorchinolone. Fosfomycin und Colistin waren in über 75% der Fälle noch wirksam.
Im zweiten Teil wurden Infektionsversuche mit dem Modellorganismus Galleria mellonella (Larve der großen Wachsmotte) durchgeführt. Dabei zeigte sich, dass die NDM-Produktion der injizierten Erreger keinen Einfluss auf die Pathogenität hatte. Zudem konnte in Therapieversuchen mit Imipenem im lebenden Organismus gezeigt werden, dass über die bakterielle NDM-Produktion die Resistenz gegen Imipenem vermittelt wird.
Im dritten Teil der Arbeit wurden die NDM-Varianten NDM 1Δ28, NDM 4Δ28 und NDM 16bΔ28 hinsichtlich ihres inhibitorischen Potentials auf Komplement untersucht. Mit den erzielten Ergebnissen der funktionellen Tests konnte für den klassischen und den Lektinweg eine signifikante Hemmung durch alle drei NDM Varianten nachgewiesen werden. Ein direkter Vergleich der einzelnen NDM-Varianten ergab, dass NDM 1Δ28 die stärkste und NDM 16bΔ28 die schwächste Inhibition auf den klassischen Komplementweg ausübte. Bindungsanalysen mit einzelnen Komplementkomponenten (C3, C3b, C3c, C4 und C4b) ließen auf eine Interaktion von NDM 1Δ28 mit C4b schließen.
Zusammenfassend leistet diese Arbeit einen Beitrag zur Fortführung epidemiologischer Untersuchungen von NDM Varianten und erbringt den in vivo Nachweis für Resistenzvermittlung durch NDM. Weiterhin wurde gezeigt, dass NDM neben der Carbapenemasefunktion auch eine immunmodulierende Wirkung erfüllt, indem der klassische und Lektinweg des Komplementsystems gehemmt wird. Damit liegt die Vermutung nahe, dass die globale Ausbreitung von NDM-produzierenden Erregern nicht nur durch die Vermittlung der Antibiotikaresistenz, sondern auch durch eine Immunevasion bedingt ist. Zukünftig könnte somit die Erforschung des Mechanismus der Immunevasion ebenso interessant sein wie die Suche nach wirksamen Inhibitoren der NDM.
Die Therapie langstreckiger Knochendefekte stellt auch weiterhin eine große Herausforderung dar. Dies beruht unter anderem darauf, dass der therapeutische Goldstandard - die Verwendung von autogener Knochensubstanz aus dem Beckenkamm - neben der begrenzten Verfügbarkeit vor allem Komplikationen im Bereich der Entnahmestelle mit sich bringen kann. Es wurde bisher aber noch kein durchschlagendes Ergebnis in der Entwicklung neuer Scaffolds zum Einsatz bei langstreckigen Knochendefekten erreicht. Dies kann eine Vielzahl an Ursachen haben, die sich von der verwendeten Ausgangssubstanz, bis hin zum verwendeten Design erstrecken können. Neben dem Ausgangsmaterial spielen vor
allem die Formgebung und physikalische Eigenschaften, wie Porosität und Mikroarchitektur, eine wichtige Rolle.
Ein aktueller Ansatz zur Nutzung als alternatives Knochenersatzmaterial ist das Knochen-Tissue-Engineering. Hierbei werden körpereigene, knochen-regenerative Zellen mit einem dreidimensionalen Gerüststoff (Knochenersatzmaterial oder -scaffold) kombiniert und in den Knochendefekt implantiert. In dieser Arbeit wurde der Fokus auf die Designentwicklung eines neuen Kochenersatz-Scaffolds gelegt. Nach Vorbild schon vorgestellter Knochenersatzdesigns und unter Berücksichtigung einer Grundstruktur, die auch Phasen der Knochenheilung wie die Frakturhämatomausbreitung und initiale Nährstoffversorgung einbeziehen sollte, wurden mehrere Designs (Raster, Tempel, Zwiebel) entwickelt. Mithilfe des additiv extrusionsbasierten Schmelzschichtverfahrens (Fused Filament Fabrication) wurden die in Computer-Aided Design entworfenen Scaffolds realisiert.
Dieser Ansatz beinhaltet, unter Verwendung des resorbierbaren und biokompatiblen Trägerpolymers Polylaktat, mehrstufige Designs, die kleine biologisch funktionelle Einheiten in eine tragende, kompressionsfeste Rahmenstruktur einbetten. Hierdurch entsteht einerseits die nötige mechanische Belastbarkeit und andererseits eine offene Architektur mit Poren, die Diffusion von Sauerstoff und
Nährstoffen in die inneren Bereiche des Implantats ermöglicht. Es wurden verschiedene Designs entwickelt, gedruckt und mechanisch sowie in vitro in den Kernbereichen Zelladhäsion, Zellaktivität und osteogene Differenzierung nach Besiedelung mit Saos-2-Zellen charakterisiert.
Ein weiterer Entwicklungsschritt stellte das Einführen eines neuartigen, innerhalb der Designs kompatiblen Baukastensystems dar. Hierdurch wird nicht nur die Anpassbarkeit an den Knochendefekt verbessert, es sind auch weitere Funktionen ergänzbar und die unterschiedlichen Designs untereinander kombinierbar.
Die Ergebnisse dieser Dissertationsarbeit dienen als Basis für einen völlig neuen Ansatz von Knochenersatzmaterialien mit positiven biologischen sowie biophysikalischen Eigenschaften.
Cardiovascular disease (CVD) is the leading cause of death in the western world. Aging as the major risk factor for the development of CVD leads to structural changes in the heart and the vasculature. In addition to endothelial cells, mural cells, including smooth muscle cells and pericytes, form the vascular wall. Pericytes are defined as the perivascular cells located in the basement membrane of the capillaries, which are the smallest components of the vascular system and ensure the gas exchange in the tissue. In the different parts of the terminal vascular bed, pericytes receive different phenotypes and organ-specific functions. In addition to the stabilization of the vascular wall, pericytes are relevant for the formation of new vessels. Due to their potential of multipotent stem cells, pericytes can differentiate into different cell types and thus take a position in developmental processes. Pericytes play a crucial role in the development and diseases of the vascular system. Moreover, pericyte coverage is reduced in the aged heart. Nonetheless, the function of pericytes in the heart and their importance during cardiac aging is not completely understood.
To study the pericyte population in the aging heart, we have performed single-nucleus RNA-sequencing analysis comparing hearts from 12-weeks-old (young) and 18-month-old (old) mice. The detailed analysis of 336 differentially expressed genes (DEG) revealed that Rgs5 is downregulated in aged pericytes. Regulator of G-protein signaling 5 (RGS5), an established marker for pericytes, is involved the regulation of the blood pressure and in the formation of various cardiovascular diesases, including cardiac hypertrophy, myocardial infarction and atherosclerosis. We have furthermore confirmed this observation in vivo. Gene ontology (GO) analysis of DEG revealed that aged pericytes are characterized by the downregulation of genes involved in cell adhesion. Further, we have performed cell biology approaches using human brain vascular pericytes (hBVP) to investigate the role of Rgs5 in pericytes in vitro. Efficient knockdown of RGS5, although has no effect on cellular metabolism, viability and endothelial permeability, induces a reduction of pericyte adhesion to both a gelatine matrix and endothelial cells in a 3D matrigel culture. This was associated with the formation of filopodia. The altered phenotype suggested a changing identity of the pericytes. We could confirm that a loss of RGS5 causes a decreased expression of the pericyte markers PDGFRb and NOTCH3 and also leads to an overexpression of COL1A1, a fibroblast marker.
Together, our findings suggest that RGS5 is required for pericyte adhesion to endothelial cells and its downregulation in the aged mural cells could explain the reduction of pericyte coverage in the aged hearts. Further, RGS5 may be the key regulator for pericyte identity, as pericytes show an altered expression profile of cellular markers. The dedifferentiation of pericytes to a more fibroblast-like cell type could explain the increased fibrosis during age-related cardiac remodeling. We believe that RGS5 is a great candidate to explore and study the molecular mechanisms that regulate pericyte function in the heart, both in homeostasis and during aging.
Die Sicherung der Atemwege ist eine der wichtigsten Aufgaben des mit dem Atemwegsmanagement beauftragten Arztes, da eine fehlgeschlagene Intubation und sich über längere Zeit erstreckende Intubationsversuche schnell zu einer kritischen Hypoxie führen können. Gelingt eine endotracheale Intubation mittels konventioneller Larnygoskopie mit dem Macintosh-Spatel unerwartet nicht, stehen verschiedene supraglottische Atemwegshilfen wie z.B. die Larynxmaske zur Atemwegssicherung zur Verfügung. Falls sich jedoch aus verschiedenen Gründen der Einsatz eines supraglottischen Atemwegs verbietet und die Notwendigkeit einer endotrachealen Intubation besteht, muss eine andere Intubationsmethode als die konventionelle Laryngoskopie gewählt werden. Das Standardverfahren für den erwartet schwierigen Atemweg, die Intubation mit dem flexiblen Endoskop am spontan atmenden Patienten, eignet sich nicht für den unerwartet schwierigen Atemweg. Hierfür werden die Intubationslarynxmaske, Videolaryngoskope, Führungsstäbe mit Transillumination und verschiedene starre Fiberoptiken wie das Bonfils Intubationsfiberskop oder das Laryngoskop nach Bullard eingesetzt. Der Erfolg des Bonfils Intubationsfiberskops am unerwartet schwierigen Atemweg und am erwartet schwierigen Atemweg, basierend auf einer Reihe klinischer Faktoren, wurde bereits bewiesen. Es ist jedoch nicht bekannt, ob sich das Instrument für einen klar definierten schwierigen Atemweg im Sinne einer eingeschränkten Mundöffnung und eingeschränkten Beweglichkeit in der Halswirbelsäule eignet. Ziel der vorliegenden Studie war es zu untersuchen, ob sich das Bonfils Intubationsfiberskop für den Einsatz am schwierigen Atemweg, simuliert durch einen Immobilisationskragen, eignet. Nach Einwilligung der Ethikkommission wurde die Studie an 76 Patienten durchgeführt, die sich einem elektiven gynäkologischen Eingriff unterzogen. Nach der Simulation des schwierigen Atemwegs durch Anlegen eines Immobilisationskragens wurden jeweils 38 Patienten randomisiert entweder mittels direkter Laryngoskopie oder dem Bonfils Intubationsfiberskop intubiert. Die erfolgreiche Platzierung des Endotrachealtubus mit dem jeweiligen Instrument war der primäre Zielparameter der Studie. Nach Immobilisierung der Halswirbelsäule betrug die maximale Mundöffnung 2,6 cm ± 0,7 cm in der Macintosh-Gruppe und 2,6 cm ± 0,8 cm in der Bonfils-Gruppe. Mit dem Laryngoskop mit Macintosh-Spatel konnten 15/38 Patienten (39,5%) erfolgreich intubiert werden, mit dem Bonfils Intubationsfiberskop konnten 31/38 Patienten (81,6%) erfolgreich intubiert werden (P<0,05). Die benötigte Zeit bis zur erfolgreichen Platzierung des Endotrachealtubus war mit dem Laryngoskop geringer (53 ± 22 s) als mit dem Bonfils Intubationsfiberskop (64 ± 24 s), dieser Zeitunterschied besitzt jedoch weder statistische, noch klinische Relevanz. In der vorliegenden Studie konnte gezeigt werden, dass das Bonfils Intubationsfiberskop der direkten Laryngoskopie mit Macintosh-Spatel an Patienten mit eingeschränkter Mundöffnung und immobilisierter Halswirbelsäule überlegen ist.
1.) Zahlreiche Medikamente werden nach Einnahme nahezu unverändert wieder ausgeschieden und gelangen über Abwasser und Kläranlagen in die aquatische Umwelt. 2.) Die gemessenen Konzentrationen erscheinen gegenüber anderen Kontaminantengruppen vergleichsweise niedrig, sind jedoch angesichts der Tatsache, dass Medikamente biologisch hoch aktive Substanzen sind, besorgniserregend. Das Beispiel Ethinylöstradiol zeigt, dass bereits im ng/l-Bereich Effekte auftreten. Abgesehen vom Beispiel Ethinylöstradiol lagen bislang keine Erkenntnisse über chronische Effekte von Medikamenten bei umweltrelevanten Konzentrationen vor. 3.) Die in der Umwelt festgestellten Arzneimittelwirkstoffe werden fast ausschließlich in Ab-, Oberflächen- und Grundwasser detektiert. Angaben über Medikamentanreicherungen in Sedimenten liegen nur vereinzelt vor. 4.) Angaben über die Ökotoxizität von Medikamenten beruhen bislang fast ausschließlich auf bei sehr hohen Substanzkonzentrationen durchgeführten Akuttests. Die Übertragung auf umweltrelevante Verhältnisse erfolgte durch Einbeziehung hoher Sicherheitsfaktoren. 5.) Die vorliegende Arbeit zeigt, dass in komplexeren Tests bereits bei sehr viel niedrigeren Konzentrationen Effekte auftreten. Diese Effekte sind nicht unmittelbar toxisch, beeinträchtigen jedoch die Entwicklung und Fortpflanzung der Versuchsorganismen nachhaltig. 6.) Als Modellsubstanzen für die in Oberflächengewässern nachgewiesenen Pharmaka wurden das Antiepileptikum Carbamazepin, Clofibrinsäure als Metabolit zahlreicher Lipidsenker, das Antibiotikum Ciprofloxacin und das Antidepressivum Fluoxetin ausgewählt. Sämtliche Pharmaka werden in der Umwelt weit verbreitet nachgewiesen. 7.) Als Testorganismen dienten die Zuckmücke Chironomus riparius, die Zwergdeckelschnecke Potamopyrgus antipodarum und der aquatische Annelide Lumbriculus variegatus. C. riparius ist ein bereits standardisierter Versuchsorganismus, L. variegatus ist zur Zeit im Standardisierungsverfahren (OECD 2004B) und für ökotoxikologische Untersuchungen empfohlen (ASTM 1995). Außerdem wurde mit den Einzellern Blepharisma japonicum und Tetrahymena thermophila ein Destruentenmikrokosmos entwickelt. Beide Einzeller sind ebenfalls erprobte Versuchsorganismen (PAULI 1996, FOX & MORIN 2001). 8.) Von den vier untersuchten Pharmaka erwiesen sich im getesteten Konzentrationsbereich Carbamazepin und Fluoxetin für jeweils einen der Testorganismen als schädlich. Carbamazepin blockierte ab einer Sedimentkonzentration von 234 µg/kg Sediment (Trockengewicht) die Entwicklung von C. riparius. Fluoxetin führte ab einer Testkonzentration von 2 µg/l zu einer Reduzierung der Embryonenzahl bei P. antipodarum. Die EC10 für Carbamazepin wurde zu 113 µg/kg Sediment berechnet, die EC10 für Fluoxetin zu 0,81 µg/l. Beide Konzentrationen sind bei Berücksichtigung der im TGD vorgesehenen Sicherheitsfaktoren umweltrelevant (PEC/PNEC > 1). Als Grundlage dieser Berechnung dienten gemessene Umweltkonzentrationen im Sediment beziehungsweise Wasser. Ein negativer Effekt von Ciprofloxacin auf L. variegatus erschien anhand der Daten zwar möglich, konnte jedoch nicht statistisch belegt werden. Für Clofibrinsäure ergaben sich keine Hinweise auf negative Effekte im getesteten Konzentrationsbereich. 9.) Die vorliegenden Berechnungen sind weitaus tragfähiger als bisher vorliegende, da sie auf chronischen Toxizitätsdaten und gemessenen Umweltkonzentrationen beruhen, statt auf Akutdaten und geschätzten Umweltkonzentrationen. 10.) Die in den Versuchen festgestellten, sehr niedrigen Effektkonzentrationen lassen Effekte auch bei umweltrelevanten Konzentrationen als wahrscheinlich erscheinen. Indirekte Effekte wie vermindertes Futterangebot für Prädatoren oder Verschiebungen im Artenspektrum sind denkbar. 11.) Der Destruentenmikrokosmos erwies sich als prinzipiell geeignet, Effekte von Xenobiotika auf Einzeller zu untersuchen, da die Positivkontrolle funktionierte. Die Daten aus den Versuchsansätzen zeigen jedoch, dass Versuchsdesign und Haltung der Testorganismen weiter entwickelt werden müssen. 12.) Die vorliegenden Daten zeigen, dass Pharmaka bei umweltrelevanten Konzentrationen ein ökologisches Risiko darstellen können. Maßnahmen zur Risikominderung sind dringend erforderlich. Angesichts des therapeutischen Nutzens der Substanzen erscheinen Verbote nicht durchsetzbar.
Modulation der Zytokinproduktion durch Interaktionen von IRAK4 und p47phox mit den TLR-Signalwegen
(2015)
p47phox wird als ein in mehreren Strukturen involviertes Protein beschrieben, welches in seiner Funktion einen großen Einfluss auf das Immunsystem nehmen kann und damit zu schweren Erkrankungen führen kann. Wegen der Vielfalt der Interaktionen ist es schwierig die Effekte von p47phox einer bestimmten Wechselwirkung zuzuordnen. Dennoch ist es unserer Arbeitsgruppe gelungen eine negative Rückkopplung von p47phox auf die Produktion von IL-12p70 [1] festzustellen. Ausgehend von dieser Interaktion und der Phosphorylierung von p47phox durch IRAK4 [2], wurde daher in dieser Doktorarbeit der Zusammenhang einer Modulation der IL-12p70-Produktion durch IRAK4 näher untersucht.