Refine
Year of publication
- 2006 (295) (remove)
Document Type
- Doctoral Thesis (295) (remove)
Has Fulltext
- yes (295)
Is part of the Bibliography
- no (295) (remove)
Keywords
- Apoptosis (4)
- Cytochromoxidase (4)
- Elektronentransfer (3)
- 5-Lipoxygenase (2)
- Biochemie (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Elektronenspinresonanzspektroskopie (2)
- Entzündung (2)
- Geographie (2)
Institute
- Medizin (113)
- Biochemie und Chemie (52)
- Biowissenschaften (36)
- Pharmazie (29)
- Physik (17)
- Wirtschaftswissenschaften (7)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
Schwerlösliche Arzneistoffe besitzen häufig unbeliebte biopharmazeutische Eigenschaften und ihre erfolgreiche Formulierung zur oralen Verabreichung stellt eine der häufigsten und größten Herausforderungen an die pharmazeutische Technologie dar. Unter zahlreichen Verfahren zur Überwindung von absehbaren Bioverfügbarkeitsproblemen kommt den physikalischen Methoden nach wie vor eine zentrale Bedeutung zu. In der vorliegenden Arbeit wurde erforscht, wie die Bioverfügbarkeit schwerlöslicher Verbindungen durch Anwendung physikalischer Verfahren und in fester Formulierung erhöht und ihre Auflösungsgeschwindigkeit als entscheidender Schritt hierzu optimiert werden kann. Als schwerlösliche Substanzen wurden die Arzneistoffe EMD 57033 und Albendazol, die eine vergleichweise niedrige Lipophilie aufwiesen, sowie Danazol, Felodipin und Fenofibrat (hohe Lipophilie) ausgewählt. Zunächst wurde untersucht, inwieweit eine klassische Wirkstoffmikronisierung dem Problem der schlechten Wasserlöslichkeit und der unzureichenden Auflösungsgeschwindigkeit zu begegnen vermag. In klassischer Art und Weise wurde gemäß der Noyes-Whitney-Beziehung durch Partikelgrößenreduktion die Auflösungsrate gesteigert. Bei großem Dosislöslichkeitsvolumen (>1000 ml) war eine Verbesserung nur bis zu einem gewissen Ausmaß möglich. Es wurde auch festgestellt, dass mit alleiniger Wirkstoffmikronisierung selbst bis in den unteren Mikrometerbereich und sogar bei Vorliegen eines kleinen Dosislöslichkeitsvolumens (<100 ml) eine optimale Auflösungsgeschwindigkeit nicht garantiert und oft nicht erzielt werden kann. Der Ansatz der Wirkstoffmikronisierung kann jedoch grundsätzlich empfohlen werden, da sich unabhängig von Dosis und Löslichkeit signifikante Verbesserungen in der Auflösungskinetik ergeben können. Luftstrahlmahlung ist eine zahlreichen anderen Verfahren überlegene Vermahlungstechnik. Sie erlaubt bei entsprechenden Einstellungen die trockene Herstellung ultrafeiner Partikel (1–3 Mikrometer) in kontinuierlichem oder Batch-Betrieb bei gut steuerbarem Prozess, der das Mahlgut praktisch keiner Temperaturbelastung unterwirft. Staubentwicklung und Abrieb müssen jedoch beachtet werden. Freisetzungen wurden in biorelevantem Medium (z.B. FaSSIF), das bestmöglich die gastrointestinalen Gegebenheiten simuliert, sowie zusätzlich in einem Mediumhöheren Tensidgehaltes durchgeführt, das zur Berücksichtigung einer ungehinderten Absorption der BCS-Klasse II-Substanzen in vivo-Sink-Bedingungen darstellte. Diese Vorgehensweise ist grundsätzlich zu empfehlen. Für EMD 57033 wurde zudem nachgewiesen, dass eine biorelevante Freisetzungsprüfung auch in einfachen SLSLösungen möglich ist. Das Dosislöslichkeitsvolumen nimmt grundsätzlich bedeutenden Einfluss auf das Freisetzungsverhalten. Die trockene Covermahlung ist ein äußerst erfolgreicher prozesstechnischer Schritt zur Formulierungsverbesserung. Sie wird durch Vermahlung eines Wirkstoffes mit einem oder mehreren Hilfsstoffen dargestellt. Durch Covermahlung per Gasstrahl zubereitete Formulierungen mit 10% Wirkstoffanteil erzielten für alle untersuchten Arzneistoffe eine optimale Auflösungsgeschwindigkeit und rasches Erreichen maximaler Freisetzung. Vergleichbaren physikalischen Mischungen sowie einfacher Mikronisierung war sie deutlich überlegen. Im Gegensatz zu reiner Wirkstoffmikronisierung bildete die Freisetzung nach Covermahlung nicht ausschließlich diskrete messbare Stoffeigenschaften ab (z.B. Korngröße), sondern war vielmehr das Ergebnis eines Herstellungsprozesses. Die qualitative und quantitative Auswahl der Hilfsstoffe prägte zudem das Freisetzungsverhalten entscheidend und in stärkerem Ausmaß als der Vermahlungsgrad. Die deutliche Verbesserung der Auflösungsgeschwindigkeit eines Wirkstoffes nach Covermahlung war unabhängig von der Wahl des Freisetzungsmediums und dem vorliegenden Dosislöslichkeitsvolumen. Die Kristallinität aller Arzneistoffe, mittels Röntgendiffraktometrie und DSC untersucht, wurde durch die Covermahlung nicht verändert. Die Korngröße eines covermahlenen Produktes konnte bei Einsatz schwer vermahlbarer Hilfsstoffe unter Umständen nicht auf den Wirkstoff projiziert werden. HPMC erwies sich als schwer vermahlbar. Für eine Aktivsubstanz (EMD 57033) wurde sogar die Ausbildung übersättigter Lösungen bei Freisetzung covermahlener Formulierungen nachgewiesen, die nicht in Phasenumwandlungen des Wirkstoffes oder in reiner Partikelgrößenreduktion begründet war. Lactose als Hilfsstoff förderte eine sehr hohe initiale Auflösungsgeschwindigkeit, oftmals wurde vollständige Freisetzung bereits nach 15 Minuten erreicht. Polymere wie HPMC und PVP wirkten stabilisierend, jedoch auch verzögernd. SLS förderte ebenfalls eine optimale Auflösungsrate durch Überwindung von etwaigen Benetzbarkeitsproblemen einesein gemahlenen) Wirkstoffes, unterband jedoch die Bildung von übersättigten Konzentrationen. Covermahlungen zeichneten sich durch eine sehr gute Reproduzierbarkeit von Herstellungsprozess und Produkt (einschließlich Freisetzungscharakteristik) aus und waren als deutlich robuster gegenüber reinen Wirkstoffvermahlungen einzustufen. Covermahlene Mischungen zeigten perfekte Homogenität. Der Wirkstoffgehalt ist zwingend nach Covermahlung zu prüfen, da sich durch den Herstellungsprozess leichte Verschiebungen in der quantitativen Zusammensetzung der Formulierung ergeben können. Covermahlungen sind industriell problemlos abbildbar. Covermahlene Formulierungen von EMD 57033 mit Lactose oder Polymeren bildeten ihre Überlegenheit gegenüber reinen Wirkstoffmikronisierungen, die sich in vitro durch die Ausbildung übersättigter Lösungen darstellte, auch in vivo in Hunden ab. Zwar steigerte bereits die Vermahlung des reinen Arzneistoffes seine orale Bioverfügbarkeit (0% - 37% relative BV), der Einsatz der Covermahlung konnte diese jedoch noch weiter erhöhen und nahezu verdoppeln (55%, 68%). Multiple Level CKorrelationen covermahlener und mikronisierter Wirkstoffformulierungen belegten erfolgreiche in vitro-Simulationen. Sprühtrocknungen schwerlöslicher Stoffe aus wässriger Umgebung geht das Problem voraus, den Stoff nicht in ausreichendem Maße auflösen zu können. In der vorliegenden Arbeit wurde daher mit Hilfe einer Rührwerkskugelmühle Kristallsuspensionen von Wirkstoffnanopartikeln (<200 nm, Messung durch Laserbeugung und Auswertung nach der Mie-Theorie) hergestellt, die dann getrocknet wurden. Den zwischenzeitigen Vorteil der extrem hohen Oberfläche in Form von Nanoteilchen gab der Wirkstoff nach Sprühtrocknung oder Sprüheinbettung (bei Anwesenheit gelöster oder (nano-) suspendierter Hilfsstoffe) wieder ab. Die Kombination aus Nanonisierung und Sprühtrocknung stellt prozesstechnisch zwei Herstellungsschritte dar und beeinträchtigt – neben der fundamentalen Problematik der Stabilisierung von Intermediaten – die Stabilität eines Wirkstoffes durch Flüssigkeitskontakt (Nassmahlung) und thermische Belastung (Sprühtrocknung). EMD 57033 verblieb bei Sprühtrocknungen kristallin und wies verglichen mit covermahlenen Formulierungen eine schwächere Auflösungsgeschwindigkeit auf. Eine Ausnahme bildete die Sprüheinbettung mit SLS, die jedoch in derPharmakokinetikstudie den Covermahlungen unterlegen war (relative Bioverfügbarkeit 47%). Fenofibrat ging fast vollständig in den amorphen Zustand über und zeigte bei Freisetzung das typische Bild einer schnellen Rekristallisation. Fazit Im Gegensatz zu Wirkstoffmikronisierungen oder Sprühtrocknungsverfahren können trockene Covermahlungen mit ausgewählten Hilfsstoffen universell das Ausmaß und die Geschwindigkeit der Auflösung schwerlöslicher Stoffe optimieren (vollständige Auflösung oder Sättigung erreicht). In Abhängigkeit von Wirk- und Hilfsstoffen werden sogar Übersättigungen erzielt, die auch in vivo in einer gesteigerten oralen Bioverfügbarkeit abgebildet werden können.
Das Zytolysin ClyA von Escherichia coli ist der Prototyp einer neuartigen Familie von porenbildenden, bakteriellen Zytolysinen, welche in verschiedenen Vertretern der Enterobacteriaceae vorkommen. Es handelt sich bei diesem Toxin um ein Protein von 34 kDa, das hämolytische und zytotoxische Aktivität aufweist und das in Zellmembranen stabile Poren einführt, indem es sich zu ringförmigen ClyA-Oligomeren zusammenlagert. Die vorliegende Dissertation sollte einen Beitrag zur funktionalen Charakterisierung des ClyA-Proteins von E. coli K12 liefern. Insbesondere sollte die Bedeutung der N-terminalen Region für den Sekretionsmechanismus, für die hämolytische und porenbildende Aktivität, für die Interaktion mit Zielmembranen und für die Fähigkeit zur Oligomerisierung des Proteins analysiert werden. Im Rahmen dieser Arbeit wurden hierzu ClyA-Derivate mit spezifischen Mutationen innerhalb des N-terminalen Bereiches hergestellt und auf ihre Funktions-tüchtigkeit überprüft. Diese Untersuchungen gingen von den bestehenden Erkenntnissen aus, dass die Sekretion von ClyA über eine periplasmatische Zwischenstufe verläuft und keine N-terminale Prozessierung des Toxins erfolgt. Es wurde festgestellt, dass bereits kurze, sukzessive Deletionen innerhalb der beginnenden N-terminalen Region, wie die Deletion der Aminosäuren an Position zwei bis fünf (ClyA∆2-5) und sechs bis zehn (ClyA∆6-10), einen deutlich hemmenden Effekt auf den Transfer von ClyA über die zytoplasmatische Membran zur Folge hatte, welcher durch die Deletion der Aminosäuren an Position zwei bis zehn (ClyA∆2-10) weiter verstärkt wurde. Größere N-terminale Mutationen, wie die Deletionen der Aminosäuren an Position zwei bis fünfzehn (ClyA∆2-15) und zwei bis zwanzig (ClyA∆2-20) sowie interne Deletionen, die Aminosäuren jenseits von Aminosäureposition zehn betrafen (ClyA∆6-15, ClyA∆11-15, ClyA∆11-20, ClyA∆16-20), führten zur fast vollständigen Inhibierung (ClyA∆6-15) oder totalen Blockierung (ClyA∆11-15, ClyA∆11-20, ClyA∆16-20, ClyA∆2-20, ClyA∆2-15) des Transports von ClyA in den periplas-matischen Raum. Während die hämolytische Aktivität der ClyA-Mutanten ClyA∆2-5, ClyA∆6-10 und ClyA∆2-10 zwar abnahm, jedoch im Vergleich zu der des wildtypischen ClyA-Proteins noch verhältnismäßig hoch war, beeinflussten die weiteren Deletionen (ClyA∆6-15, ClyA∆11-15, ClyA∆11-20, ClyA∆16-20, ClyA∆2-15, ClyA∆2-20) die hämolytische Eigenschaft des Toxins ganz erheblich. So verursachten diese Mutationen eine massive Abnahme (ClyA∆6-15) bzw. einen kompletten Verlust (ClyA∆11-15, ClyA∆11-20, ClyA∆16-20, ClyA∆2-20, ClyA∆2-15) der zytolytischen Aktivität des ClyA-Proteins gegenüber Erythrozyten. Untersuchungen an künstlichen Lipidmembranen ergaben, dass die Deletion der Aminosäuren an Position zwei bis fünf, sechs bis zehn und zwei bis zehn die porenbildende Aktivität des ClyA-Proteins nur unwesentlich beeinträchtigt. Dagegen störte die Deletion der Aminosäuren an Position zwei bis fünfzehn und zwei bis zwanzig die porenbildende Eigenschaft von ClyA so tiefgreifend, dass keine (ClyA∆2-20) oder nur Transmembranporen mit extrem geringem Innendurchmesser (ClyA∆2-15) erzeugt wurden. Daneben spiegelten instabile Membranporen, die durch die ClyA-Mutanten ClyA∆6-15, ClyA∆11-15, ClyA∆11-20 und ClyA∆16-20 im künstlichen Lipid-Bilayer gebildet wurden, die negativen Auswirkungen dieser Mutationen auf die porenbildende Aktivität des Toxins wider. Die gesammelten Daten unterstreichen somit nicht nur die essentielle Bedeutung der N-terminalen Region des Zytolysins ClyA von E. coli K12 für den Transport in den periplasmatischen Raum, sondern auch für die hämolytische und porenbildende Eigenschaft des Toxins. Allerdings wurde die hämolytische und porenbildende Aktivität des ClyA-Proteins erst durch Mutationen ab Aminosäureposition zehn signifikant beeinträchtigt. Demgegenüber verdeutlichten Untersuchungen zum Bindungsverhalten an Zielzellen sowie Crosslinking-Experimente, dass die N-terminale Aminosäuresequenz von Position zwei bis zwanzig von ClyA weder für die Bindung an Erythrozyten noch für die Oligomerisierung des Toxins einen wesentlichen Faktor darstellt.
Ziel der vorliegenden Studie war, die maschinelle Aufbereitung stark gekrümmter Wurzelkanäle extrahierter humaner Oberkiefermolaren unter Anwendung von drei verschiedenen Ni-Ti-Instrumentensystemen (Profile®, FlexMaster® und RaCe™) mittels einer modifizierten Methode nach Bramante zur prä- und postoperativen Analyse von Kanalquerschnittsflächen zu untersuchen. Hierfür wurden 60 stark gekrümmte Wurzelkanäle auf drei Versuchsgruppen verteilt. Von jedem Wurzelkanal wurden vom Apex ausgehend mindestens fünf Querschnittebenen hergestellt, die nach sicherer Reposition in einer eigens angfertigten Küvettenform mittels des Endodontiehandstücks Tri Auto ZX aufbereitet wurden. Die prä- und postoperative Vermessung der Kanalflächen wurde mittels einer Flächenvermessungssoftware durchgeführt und anschließend die Werte der Kanalflächendifferenzen, wie auch die Aufbereitungszeiten, die Arbeitslängenverluste sowie Frakturhäufigkeiten mit Hilfe des Kruskal-Wallis Multiple-Comparison Z-Value Tests, des Duncan’s Multiple-Comparison Tests und des Regular-Tests statistisch erfasst. Der weitaus signifikant größte Materialabtrag konnte bei FlexMaster® mit 0,19 mm² im Vergleich zu Profile® und RaCe™ ermittelt werden. In der Gruppe FlexMaster® wurden gleichzeitig auch die geringsten Aufbereitungszeiten mit im Mittel 795,00 Sekunden notiert. Der Verlust an Arbeitslänge war allgemein gering, wobei Profile® im Vergleich zu den beiden anderen Gruppen keine Arbeitslängenverluste vorzuweisen hatte aber auch RaCe™ mit 0,05 mm einen signifikant kleineren Mittelwert als FlexMaster® zeigte. Insgesamt frakturierten 10 Aufbereitungsinstrumente, davon sechs bei RaCe™, drei bei Profile® und nur ein Instrument beim FlexMaster®-System. Abschließend lässt sich aus den in dieser Studie gewonnenen Erkenntnissen ableiten, dass die Aufbereitung stark gekrümmter Wurzelkanäle mit FlexMaster®-Instrumenten in Verbindung mit dem Tri Auto ZX sicher, schnell und effektiv durchgeführt werden kann. Inwieweit ihr massiver Instrumentenkerndurchmesser durch eine denkbar geringere Flexibilität hierbei Einfluss auf den in der Untersuchung festgestellten möglichen geringen „Zipping-Effekt“ hat, sollte in weiteren Studien untersucht werden. Auch mit RaCe™-Instrumenten konnte eine schnelle und effiziente Kanalaufbereitung erfolgen, jedoch ist von dem Einsatz dieser Instrumente in Verbindung mit dem in dieser Studie verwendeten Tri Auto ZX hinsichtlich der im Vergleich hohen Frakturrate abzuraten.
Derzeit ist die Frage nach der optimalen Therapie der Lyme-Borreliose noch nicht abschließend geklärt. Fälle von Therapieversagen sind aber für fast alle eingesetzten antibiotischen Substanzen beschrieben. Zudem stellen chronische Verläufe die behandelnden Ärzte immer wieder vor Probleme. Eine genauere Charakterisierung der Antibiotikaempfindlichkeit von Borrelien ist daher wünschenswert, zumal bislang nur wenig über die natürliche Resistenz des Erregers und die pharmakodynamischen Wechselwirkungen zwischen Antibiotika und Borrelien in vivo und in vitro bekannt ist. Neuen, einfach zu handhabenden, standardisierten Tests zur Empfindlichkeitsprüfung antibiotischer Substanzen kommt hierbei eine entscheidende Rolle zu. Das in der vorgelegten Arbeit verwendete kolorimetrische Mikrodilutionsverfahren war benutzerfreundlich in der Anwendung und erwies sich als zuverlässig, reproduzierbar und genau. Die für bekannte Standardsubstanzen ermittelten MHK- und MBK-Werte für Borrelien sind in sehr guter Übereinstimmung mit den Ergebnissen anderer Autoren unter ähnlichen experimentellen Bedingungen. Die hier vorgelegten Ergebnisse zeigen eine verbesserte in-vitro-Aktivität neuerer Fluorchinolone gegen Borrelien. Fluorchinolone wie Gatifloxacin, Sitafloxacin und Gemifloxacin (Klasse-IV-Fluorchinolone) waren bezüglich ihrer in-vitro-MHK-Werte mit denen von einigen beta-Lactam-Antibiotika annähernd vergleichbar. Allerdings lagen die MHK- und MBK-Werte von Mezlocillin und Piperacillin noch deutlich unter denen der genannten Chinolone. Insgesamt zeigten Fluorchinolone der Klassen IV und III eine stärkere in-vitro-Aktivität gegen Borrelien als Aminoglykoside, Ansamycine und Monobactame. Für Chinolone mit guter bis sehr guter Wirksamkeit gegen B. burgdorferi ergab sich folgende Rangfolge: Gemifloxacin (MHK90: 0,12 µg/ml) > Sitafloxacin (MHK90: 0,5 µg/ml); Grepafloxacin (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml) > Moxifloxacin (MHK90: 2 µg/ml); Ciprofloxacin (MHK90: 2 µg/ml) > Levofloxacin (MHK90: 4 µg/ml). Im Gesamtvergleich aller Substanzen zeigte sich folgende Rangordnung für Antibiotika mit guter bis sehr guter in-vitro-Aktivität: Mezlocillin (MHK90: kleiner/gleich 0,06 µg/ml); Piperacillin + Tazobactam (MHK90: kleiner/gleich 0,06 µg/ml) > Gemifloxacin (MHK90: 0,12 µg/ml) > Penicillin G (MHK90: 0,25 µg/ml); Meropenem (MHK90: 0,25 µg/ml) > Grepafloxacin (MHK90: 0,5 µg/ml); Sitafloxacin (MHK90: 0,5 µg/ml); Amoxicillin + Clavulansäure (MHK90: 0,5 µg/ml); Imipenem (MHK90: 0,5 µg/ml) > Gatifloxacin (MHK90: 1 µg/ml); Sparfloxacin (MHK90: 1 µg/ml); Clinafloxacin (MHK90: 1 µg/ml); Trovafloxacin (MHK90: 1 µg/ml); Vancomycin (MHK90: 1 µg/ml). Die umfassende statistische Analyse aller experimentell bestimmten MHK- und MBK-Werte für die verschiedenen untersuchten Antibiotika ergab z. T. signifikante Genospezies-spezifische Unterschiede bei der Empfindlichkeit der getesteten Isolate des B. burgdorferi-Komplexes gegen Penicillin G, Meropenem, Mezlocillin, Piperacillin, Amoxicillin, Aztreonam, Sitafloxacin, Grepafloxacin, Gemifloxacin, Norfloxacin, Ofloxacin und Pefloxacin. Insgesamt zeigten B. garinii-Isolate dabei interessanterweise signifikant niedrigere MBK- und z. T. auch niedrigere MHK-Werte als die übrigen eingesetzten Borrelia-Genospezies. Die höchsten MBK-Werte wurden hingegen bei den getesteten B. burgdorferi s. s.-Isolaten beobachtet. Vor dem Einsatz von Fluorchinolonen in der Therapie der Lyme-Borreliose müssen aber zunächst die Ergebnisse von klinischen Studien abgewartet werden. Moderne Chinolone sind als möglicher alternativer Therapieansatz bei Lyme-Borreliose insofern interessant, als sie bekanntermaßen auch gegen andere durch Zecken übertragene Krankheitserreger wie den Erreger der Humanen Granulozytären Ehrlichiose (HGE) und manche Rickettsia spp. wirksam sind.
Analyse von Heuristiken
(2006)
Heuristiken treten insbesondere im Zusammenhang mit Optimierungsproblemen in Erscheinung, bei solchen Problemen also, bei denen nicht nur eine Lösung zu finden ist, sondern unter mehreren möglichen Lösungen eine in einem objektiven Sinne beste Lösung ausfindig gemacht werden soll. Beim Problem kürzester Superstrings werden Heuristiken herangezogen, da mit exakten Algorithmen in Anbetracht der APX-Vollständigkeit des Problems nicht zu rechnen ist. Gegeben ist eine Menge S von Strings. Gesucht ist ein String s, so dass jeder String aus S Teilstring von s ist. Die Länge von s ist dabei zu minimieren. Die prominenteste Heuristik für das Problem kürzester Superstrings ist die Greedy-Heuristik, deren Approximationsfaktor derzeit jedoch nur unzureichend beschränkt werden kann. Es wird vermutet (die sogenannte Greedy-Conjecture), dass der Approximationsfaktor genau 2 beträgt, bewiesen werden kann aber nur, dass er nicht unter 2 und nicht über 3,5 liegt. Die Greedy-Conjecture ist das zentrale Thema des zweiten Kapitels. Die erzielten Ergebnisse sind im Wesentlichen: * Durch die Betrachtung von Greedyordnungen können bedingte lineare Ungleichungen nutzbar gemacht werden. Dieser Ansatz ermöglicht den Einsatz linearer Programmierung zum Auffinden interessanter Instanzen und eine Vertiefung des Verständnisses solcher schwerer Instanzen. Dieser Ansatz wird eingeführt und eine Interpretation des dualen Problems wird dargestellt. * Für die nichttriviale, große Teilklasse der bilinearen Greedyordnungen wird gezeigt, dass die Länge des von der Greedy-Heuristik gefundenen Superstrings und die des optimalen Superstrings sich höchstens um die Größe einer optimalen Kreisüberdeckung der Strings unterscheiden. Da eine optimale Kreisüberdeckung einer Menge von Strings stets höchstens so groß ist wie ein optimaler Superstring (man schließe einen Superstring zu einem einzelnen Kreis), ist das erzielte Ergebnis für die betrachtete Teilklasse der Greedyordnungen stärker als die klassische Greedy-Conjecture. * Es wird eine neue bedingte lineare Ungleichung auf Strings -- die Tripelungleichung -- gezeigt, die für das eben genannte Hauptergebnis wesentlich ist. * Schließlich wird gezeigt, dass die zum Nachweis der oberen Schranke von 3,5 für den Approximationsfaktor herangezogenen bedingten Ungleichungen (etwa die Monge-Ungleichung) inhärent zu schwach sind, um die Greedy-Conjecture selbst für lineare Greedyordnungen zu beweisen. Also ist die neue Tripelungleichung auch notwendig. Zuletzt wird gezeigt, dass das um die Tripelungleichung erweiterte System bedingter linearer Ungleichungen inhärent zu schwach ist, um die klassische Greedy-Conjecture für beliebige Greedyordnungen zu beweisen. Mit der Analyse von Queueing Strategien im Adversarial Queueing Modell wird auch ein Fall betrachtet, in dem Heuristiken auf Grund von anwendungsspezifischen Forderungen wie Online-Setup und Lokalität eingesetzt werden. Pakete sollen in einem Netzwerk verschickt werden, wobei jeder Rechner nur begrenzte Information über den Zustand des Netzwerks hat. Es werden Klassen von Queueing Strategien untersucht und insbesondere untersucht, wovon Queueing Strategien ihre lokalen Entscheidungen abhängig machen sollten, um ein gewisses Qualitätsmerkmal zu erreichen. Die hier erzielten Ergebnisse sind: * Jede Queueing Strategie, die ohne Zeitstempel arbeitet, kann zu einer exponentiell großen Queue und damit zu exponentiell großer Verzögerung (im Durchmesser und der Knotenzahl des Netzwerks) gezwungen werden. Dies war bisher nur für konkrete prominente Strategien bekannt. * Es wird eine neue Technik zur Feststellung der Stabilität von Queueing Strategien ohne Zeitnahme vorgestellt, die Aufschichtungskreise. Mit ihrer Hilfe können bekannte Stabilitätsbeweise prominenter Strategien vereinheitlicht werden und weitere Stabilitätsergebnisse erzielt werden. * Für die große Teilklasse distanzbasierter Queueing Strategien gelingt eine vollständige Klassifizierung aller 1-stabilen und universell stabilen Strategien.
Kontinuierliche Messung der Kreislaufparameter mit Finapres® bei Kipptischuntersuchungen von Kindern
(2006)
Hintergrund Bei etwa 1% aller Notfallpatienten, die in Kinderkliniken eingewiesen werden, liegt anamnestisch eine unklare Synkope vor. Die diagnostische Abklärung ist oft schwierig, da es gerade für Kinder keine nicht invasive und wenig zeitaufwendige Diagnostik gibt, pathologische Kreislaufreaktionen zu beurteilen. Methoden Bei dieser explorativen Studie wurden Kipptischuntersuchungen an 119 gesunden Kindern zwischen 7 und 15 Jahren durchgeführt. Zum Einsatz kamen ein elektronisch gesteuerter, sowie ein manueller Kipptisch. Mit verschiedenen Kippvorgängen (langsam vorwärts/rückwärts, schnell vorwärts/rückwärts, Impulskippen) wurden Lagewechsel vom Liegen zum Stehen bzw. umgekehrt simuliert. Dabei wurden mit Hilfe einer kontinuierlichen beat-by-beat Blutdruck- und Pulsmessung die Kreislaufreaktionen während und nach dem Kippvorgang registriert und Alter und Geschlecht miteinander verglichen. Aus den ermittelten Daten wurden Perzentilenkurven erstellt, in die, ausgehend vom individuellen Ruhewert des Kindes, die Veränderung der Kreislaufparameter eingetragen werden können. Ergebnisse Die Ruhewerte waren nicht geschlechts-, aber altersabhängig, so dass die Kinder in geschlechtsunabhängige Altersgruppen zusammengefasst werden konnten. Die Veränderungen der Kreislaufparameter erwiesen sich sowohl vom Geschlecht als auch vom Alter unabhängig. Beim Langsam-Vorwärts-Kippen stiegen sowohl der systolische und der diastolische Blutdruck als auch die Pulsfrequenz nach einer Latenzzeit von 10 Sekunden kontinuierlich an, um nach ca. 30 Sekunden einen neuen höheren Ruhewert zu erreichen. Beim Schnell-Vorwärts-Kippen kam es in den ersten 10 Sekunden zu einem systolischen Blutdruckeinbruch. Danach stieg der systolische Blutdruck auf ein neues Niveau, das wenige mmHg über dem Ausgangswert lag. Der diastolische Blutdruck erhöhte sich nach 10 Sekunden kontinuierlich auf einen 10 mmHg höheren Wert. Die Pulsfrequenz stieg innerhalb von 10 Sekunden durchschnittlich um 10 Schläge/min an. Beim Zurück-Kippen verhielten sich die Kreislaufparameter entgegengesetzt. Der systolische Blutdruck sank um ca. 10 mmHg, der diastolische Blutdruck um 15mmHg und die Pulsfrequenz sank um ca. 20 Schläge/min. Beim Schnell-Zurück-Kippen geschah die Veränderung der Parameter innerhalb von ca. 10 Sekunden, beim Langsam-Zurück-Kippen innerhalb von ca. 20 Sekunden. Beim Impuls-Kippen kam es zu einem Abfall der Blutdruckwerte um wenige mmHg, die Pulsfrequenz sank nach einem initialen Anstieg von ca. 10 Schlägen/min um ca. 5 Schläge/min im Vergleich zum Ausgangswert. Schlussfolgerung Mit Hilfe der beat-by-beat Blutdruck- und Pulsmessung war es möglich, die Kreislaufreaktionen bei orthostatischer Belastung in hoher zeitlicher Auflösung darzustellen. Der in Perzentilenkurven dargestellte Querschnitt von Daten gesunder Kinder soll die Erkennung pathologischer Kreislaufreaktionen bei herzkranken oder symptomatisch gewordenen Kindern erleichtern. So wird eine nicht-invasive Methode zur Verfügung gestellt, mit der die Kreislaufreaktionen bei Kindern genau abgebildet und einfach bewertet werden können.
Hypoxie entsteht, wenn das Sauerstoffangebot bzw. die Sauerstoffversorgung unter ein Niveau sinkt, das benötigt wird, um physiologische O2-Drücke des betreffenden Gewebes aufrecht zu erhalten. Sinkt der Sauerstoff-Partialdruck, so werden adaptive Mechanismen aktiviert. Neben der Anpassung durch das kardiovaskuläre System werden auch verschiedene Gene aktiviert. Die Forschung der letzten Jahre hat gezeigt, dass Hypoxieinduzierte Genexpression insbesondere von zwei Transkriptionsfaktoren, HIF (hypoxia inducible factor) -1 und -2 , gesteuert wird. Man kennt über 70 Gene, die von HIF transaktiviert werden. Dabei handelt es sich um Modulatoren von Angiogenese und Vasodilatation, Erythropoese sowie der Umstellung des Stoffwechsels von oxidativer Phosphorylierung auf Glykolyse. Die Hypoxie-induzierbare Genexpression wird sowohl über eine Steigerung der Transaktivierungsaktivität als auch der Proteinmenge der HIF- -Untereinheiten reguliert. Die Regulation der HIF-Proteinmenge erfolgt über eine vom O2-Partialdruck abhängige Stabilisierung der -Untereinheit des Proteins. Unter normoxischen Bedingungen wird das Protein durch die Prolylhydroxylasen (PHD) O2-abhängig hydroxyliert, pVHL-vermittelt (VHL = von Hippel-Lindau), ubiquitiniert und proteosomal abgebaut. Unter hypoxischen Bedingungen dagegen wird das Protein stabilisiert, akkumuliert im Zellkern und bindet an eine spezifische Zielsequenz, das Hypoxia-responsive element oder HRE, imPromotor von Hypoxie-aktivierten Genen. Die PHDs gehören zu einer Familie von Eisen- und 2-Oxoglutarat-abhängigen Dioxygenasen. Neben diesen Faktoren wird eine Regulation von HIF durch Sauerstoffradikale (ROS, reactive oxygen species) in der Literatur sehr kontrovers diskutiert, da die Wirkung von ROS auf HIF sich unter Normoxie, Hypoxie oder dem Einfluss von Wachstumsfaktoren unterscheidet. Im Rahmen dieser Arbeit sollte die Frage, welche Rolle die PHDs bei der ROS-vermittelten HIF-Regulation spielen, beantwortet werden. Der zugrunde liegende Mechanismus wurde anhand von Glioblastom-Zelllinien untersucht. Die vorliegende Arbeit zeigt eine Stabilisierung von HIF nach Verringerung der ROS-Konzentration unter Normoxie. Eine Erhöhung der ROS-Konzentration führt dagegen zu einer dosisabhängigen Verminderung von HIF und der HIF-Targetgen-Expression. Es konnte eine direkte Abhängigkeit der Destabilisierung von VHL und den Prolylhydroxylasen gezeigt werden, da sowohl eine VHL-Defizienz als auch eine Mutation der Prolylreste oder eine Inhibition der PHDs zu einer Aufhebung des Effekts führen. Eine vergleichbare destabilisierende Wirkung auf HIF übt Ascorbat aus. Überraschenderweise führt sowohl die Zugabe von H2O2 mit seiner oxidativen Wirkung als auch die Zugabe des Reduktionsmittels Ascorbat zu einer Erhöhung des intrazellulären Fe2+-Gehaltes. Dieser Befund kann durch eine Aktivierung von Enzymen mit eisenreduzierenden Eigenschaften erklärt werden. Im Rahmen dieser Arbeit wurde die Proteinfamilie der Ferrireduktasen (FR) identifiziert und fünf Enzyme, die eine Homologie zur cytb561-Domäne aufweisen, kloniert. Eine detaillierte Charakterisierung zeigte, dass die Enzyme tatsächlich eine eisenreduzierende Aktivität aufweisen, die durch die exogene Zugabe von ROS noch erhöht wird. Eine Überexpression der FR führt zu einem erhöhten Abbau von HIF. Ein knock down mittels siRNA führt dagegen zu einer Akkumulation von HIF und die destabilisierende Wirkung von ROS ist nach einemknock down der FR deutlich reduziert. Aufgrund der in dieser Doktorarbeit gezeigten Daten kann folgendes Modell aufgestellt werden: Die primäre oxidative Wirkung von ROS führt vermutlich zu einer Aktivierung der Ferrireduktasen, die in Abhängigkeit von Ascorbat dann vermehrt Eisen reduzieren, so dass dies den PHDs als Substrat zur Verfügung steht. Der regulierende Einfluss auf HIF wird somit vermutlich über eine erhöhte Aktivität der Prolylhydroxylasen durch eine Erhöhung des intrazellulären Fe2+-Gehaltes vermittelt. Die erhobenen Daten deuten an, dass die Familie der Ferrireduktasen ein zentrales Bindeglied im O2-Sensing darstellt, das in Abhängigkeit von Redox-Signalen homeostatische Antworten auf Hypoxie moduliert.
Since the discovery of the ozone hole [Farman et al., 1985], the dynamics of the stratosphere and the transport of anthropogenic trace gases from the surface to the higher atmosphere has come into the focus of interest. In the tropics, air rises high into the stratosphere and is transported poleward. Trace gases like the CFCs1, photochemically stable in the troposphere, are thus transported into regions where they are photolyzed. The products of the photolysis reactions (eg. Cl, Br) interact in the catalytic ozone cycles and lead to enhanced ozone depletion. Regarding the transport of trace gases, the so-called lowermost stratosphere (LMS) is a very interesting region, where the troposphere and the stratosphere directly interact and air masses out of both regions are mixed. It is the lowest part of the stratosphere between the tropopause and the 380 K isentrope. Tropospheric air can enter this region directly via isentropic transport across the extra-tropical tropopause whereas stratospheric air descends across the 380 K isentrope via the mean meridional circulation. Stratosphere-troposphere exchange (STE) controls the chemical composition of the LMS as well as of the tropopause region and thus has an important effect on the radiative and chemical balance of these regions and the climate system. STE exhibits a strong seasonality [Holton et al., 1995]. While downwelling of stratospheric air across the 380 K isentrope is the dominant process in winter, troposphere-to-stratosphere transport (TST) gains importance in summer, when the downwelling from the stratosphere is only weak. Isentropic transport across the extra-tropical tropopause occurs in regions where the tropopause is strongly disturbed and is connected to tropopause folds, streamer events, frontal zones, polar and subtropical jets, warm conveyor belts and cut-off low systems. A short introduction into STE, the LMS region, and methods to study atmospheric transport is given in Chapter 1. One useful tool to analyse the motions of air and transport processes are longlived trace gases. Since the lifetimes of these tracers are longer than the time scale of the transport processes they are involved in, the distribution of tracers in the atmosphere is mostly determined by dynamics. In the context of this thesis, measurements of such long-lived tracers were performed and used to study transport into the LMS region in the northern hemisphere. During the Vintersol/EuPLEx and ENVISAT validation campaigns in winter 2003, long-lived tracers such as N2O, CH4, CFC-12, CFC-11, H-1211, H2, SF6 and CO2 were measured with the High Altitude Gas Analyser (HAGAR), a two channel in-situ gas chromatograph combined with a CO2 instrument, based on nondispersive infrared absorption. Combined with measurements taken during campaigns in Forli/Italy (ENVISAT validation) in July and October 2002, tracer data were gathered from the tropopause up to altitudes around 20 km during 25 flights on board the Russian high-altitude aircraft M55 Geophysica. Thus, a substantial set of high quality tracer data has been obtained covering the polar vortex region as well as the mid latitudes of the northern hemisphere. Chapter 2 gives an overview of the HAGAR instrument and necessary improvements of the instrumental set up (implementing a CH4 channel) that were performed in the context of this thesis, and review data processing, the measurement campaigns. In order to study transport into the LMS it is assumed that air basically enters the LMS via three different pathways: a) quasi-isentropic transport from the troposphere, b) downward advection from the middle stratosphere through the 380 K surface and c) in the polar vortex region subsidence of air from of the polar vortex. Fractions of air originating in each of these source regions are determined with a simple mass balance calculation by using observations of a subset of the above species with distinct lifetimes (N2O, CH4, CFC-11, H-1211, H2 and O3) yielding complementary constraints on transport from each region. Details of the mass balance calculation and the results are presented in Chapter 3. During the mid-latitude measurement campaigns in Forlí the passing of a cut-off low system associated with an elongated streamer over Europe was observed. The impacts of this event on the trace gas mixing ratios in the LMS are examined in Chapter 4. Finally, a summary is given in Chapter 5.
For this thesis photon and pi0 spectra in Gold-Gold-collisions at an energy of sqrt(s_NN) = 62 GeV were measured using the STAR-experiment at RHIC. Heavy ion collisions allow to study strongly interacting matter under extreme condiditons in the laborartory. Nuclear matter is strongly compressed and heated. Theories predict in a system of strongy interacting matter at high temperature and pressure a phase transition from hadronic matter, in which quarks are bound into hadrons, to a plasma of free quarks and gluons (QGP). To study the properties of this created medium, a number of different observables is available. One possibility to determine the temperature of such a system, is to measure the photon emission from the medium. The experimental difficulty is that there are more mechanisms producing photons than just the thermal production. Photons are produced in hard scattering processes or can be the result of the interaction of hard partons with the medium. According to theoretical calculations the photon yield from hard processes exceeds the thermal production for transverse momenta above 3 GeV/c. Photons from hard processes and thermal photons are referred to as direct photons, because they are produced inside of the medium. The largest part of the photons below pt=3GeV/c, however, comes from electromagnetic decays of hadrons in the final state of the collision. The largest fraction comes from the pi0- and the eta-mesons. Their contribution to the photon spectra can be determined by measuring the spectra of these decaying particles and calculating the resulting, corresponding photon spectra. The experimental difficulty is to measure these spectra to an accuracy of a few percent because the decay photons make up about 90% of all photons in the relevant phase space region. The STAR-experiment provides different detectors to measure photons and pi0-mesons. The primary detector for this kind of measurement are the electromagnetic calorimeters. However, the analysis described in this thesis uses the time projection chamber (TPC). Because photons don't carry electric charge and the TPC is only sensitive to charged particles, a conversion of the photon into an electron-positron-pair is required. This happens inside the electromagnetic fields of the nuclei and the electrons in the atomic shell of the detector material in the experimental setup of STAR. The resulting electron and positron tracks are measrued in the TPC. In chapter 3 the reconstruction of conversions from the measured tracks is described. Chapter 4 discusses the efficiency of the measurement, which is determined with a Monte-Carlo-Method, and the uncertainties of the correction. Chapter 5 presents the results of the analysis. The data set, on which the analysis is based, consists of Gold-Gold-Collisions an a center of mass energy of sqrt(s_NN)=62GeV. The selection criteria for individual events during data taking and during the analysis are explained. The data set is divided into four centrality selection classes. The first result are the transverse momentum and rapidity spectra of inclusive photons for all four centralities and the whole data set. Pi0-spectra versus transverse momentum for the four centralities and the whole data set are also shown. The pi0-spectra are compared to the spectra of pi0-mesons measured by the PHENIX-Collaboration at the same energy and with pi0-spectra measured by STAR at full RHIC energy. In addition a comparison to charged pi+- and pi--spectra is shown, which were also measured by the STAR collaboration. It is attempted to extract the fraction of direct photons by dividing the spectra of inclusive photons by the spectra of simulated decay photons. In these simulations pi0- and eta-spectra are modeled based on the pi+- and pi--spectra. Studying the uncertainties of this procedure shows that the size of the uncertainties is of the same magnitude as the signal of direct photons. Also the systematic uncertainties of the pi+- and pi--spectra are similar. Therefore the measurement of direct photon spectra is not possible. In chapter 6 possibilities are described to reduce the large systematic uncertainties. In addition it is discussed, what could be done with an already existing data set at full RHIC energy and how the addition of a dedicated converter during a future data taking period could reduce the systematic errors. The result of this thesis are inklusive photon and pi0 spectra. The systematic uncertainties were extensively studied. It is described, which enhancements are necessary to provide the perspective for measuring direct photons in the area of 1 to 3 GeV/c transverse momentum.