Universitätspublikationen
Refine
Year of publication
- 2009 (610) (remove)
Document Type
- Article (179)
- Doctoral Thesis (116)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (26)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
Language
- German (367)
- English (226)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (610)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (47)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (32)
- E-Finance Lab e.V. (24)
- Informatik (24)
- Geschichtswissenschaften (23)
- Erziehungswissenschaften (15)
- Kulturwissenschaften (15)
- Wirtschaftswissenschaften (14)
- Philosophie (13)
- Psychologie (13)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (12)
- Institut für sozial-ökologische Forschung (ISOE) (12)
- Institut für Sozialforschung (IFS) (10)
- Frankfurt Institute for Advanced Studies (FIAS) (9)
- Institut für Wirtschaft, Arbeit, und Kultur (IWAK) (9)
- Mathematik (7)
- Neuere Philologien (7)
- Pharmazie (7)
- Geographie (6)
- Sprachwissenschaften (6)
- Center for Financial Studies (CFS) (5)
- Institut für Ökologie, Evolution und Diversität (5)
- Interdisziplinäres Zentrum für Ostasienstudien (IZO) (5)
- Sportwissenschaften (5)
- Zentrum für Arzneimittelforschung, Entwicklung und Sicherheit (ZAFES) (5)
- Exzellenzcluster Makromolekulare Komplexe (4)
- Georg-Speyer-Haus (4)
- Sprach- und Kulturwissenschaften (4)
- Zentrum für Weiterbildung (4)
- Akademie für Bildungsforschung und Lehrerbildung (bisher: Zentrum für Lehrerbildung und Schul- und Unterrichtsforschung) (3)
- Biochemie, Chemie und Pharmazie (3)
- Evangelische Theologie (3)
- House of Finance (HoF) (3)
- Extern (2)
- Sonderforschungsbereiche / Forschungskollegs (2)
- Universitätsbibliothek (2)
- Zentrum für Nordamerika-Forschung (ZENAF) (2)
- Geowissenschaften / Geographie (1)
- Informatik und Mathematik (1)
- MPI für Biophysik (1)
- MPI für Hirnforschung (1)
- Senckenbergische Naturforschende Gesellschaft (1)
- Zentrum für Biomolekulare Magnetische Resonanz (BMRZ) (1)
- keine Angabe Institut (1)
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Large amplitude intramolecular motions in non-rigid molecules are a fundamental issue in chemistry and biology. The conventional approaches for study these motions by far-infrared and microwave spectroscopy are not applicable when the molecule is non-polar. Therefore, in the current thesis an alternative approach for the investigation of large amplitude intramolecular motions was developed and tested. This new method is based on femtosecond rotational degenerate four-wave mixing spectroscopy (fs DFWM), which is a particular implementation of rotational coherence spectroscopy. The method was successfully applied for the investigation of pseudorotation in pyrrolidine and the ring-puckering vibration in cyclopentene. Another important subject is the photophysics of molecules and molecular clusters which have an ultrashort lifetime of their electronically excited state (photoreactivity). These ultrashort lifetimes often represent a protective mechanism causing photostability. The photoreactivity is usually the manifestation either of an “elementary” reaction, such as proton or electron transfer, which occurs in the excited state or of a fast non-radiative deactivation processes, such as internal conversion via conical intersection of the electronically excited and ground state. Due to a short-lived excited state, the conventional vibrational spectroscopic methods, such as IR depletion detected by resonance two-photon ionization spectroscopy (IR/R2PI), are not applicable for the structural investigation of these systems. Therefore, new approach, termed IR depletion detected by multiphoton ionization with femtosecond laser pulses (IR/fsMPI), was developed for studying the structure of photoreactive microsolvated molecules. The IR/fsMPI technique was applied for investigating the clusters of 1H-pyrrolo[3,2-h]quinoline with water/methanol as well as adenine- and 9-methyl-adenine-hydrates. In addition, the excited state dynamics of bifunctional azaaromatic molecule 7-(2'-pyridyl)indole (7PyIn) was studied by femtosecond pump-probe resonance excitation multiphoton ionization technique (fs REMPI). Under electronic excitation of this molecule a fast proton transfer (phototautomerization) takes place, which is followed by radiationless excited state deactivation process. The fs REMPI spectra lead to the conclusion that the phototautomerization in 7PyIn is coupled with a twisting of the molecule, and that the twisting provides an efficient channel for ultrafast radiationless excited state deactivation. This pattern of excited-state tautomerization/deactivation might be quite general.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Ziel dieser Arbeit war es, zwei Atemtestverfahren in der Diagnostik der bakteriellen Fehlbesiedelung im Dünndarm bei Kindern mit Zystischer Fibrose miteinander zu vergleichen. Der moderne 13C-Xylose-Atemtest wurde dem bisher etablierten H2-Glukose-Atemtest gegenübergestellt. Dabei sollte zusätzlich die Suszeptibilität der CF-Patienten für eine IBF eruiert werden. Die Probanden absolvierten einen kombinierten 13C-Xylose-/H2-Glukose-Atemtest. Retrospektiv wurden zunächst die H2-Ergebnisse der einzelnen Probandengruppen analysiert und dann den maximalen PDR-, cPDR- und den DOB-Werten gegenübergestellt. Die Ergebnisse der aktuellen Studie sprechen für die Prädisposition der CF-Patienten, eine IBF zu entwickeln. Kliniker sollten aber bei der Interpretation der Atemtestergebnisse stets die beeinflussenden Faktoren, die vor allem die Erkrankung der Mukoviszidose mit sich bringt, berücksichtigen und therapeutische Konsequenzen vorsichtig umsetzen. So können die erhöhten Wasserstoffkonzentrationen im H2-Glukose-Atemtest bei CF-Kindern nicht ausschließlich einer IBF zugeschrieben werden. Die hohen Nüchternwerte sind auch Ausdruck der allgemeinen Maldigestion, Malabsorption und der intestinalen Motilitätsstörung, die bei diesen Patienten vorherrschen. Der 13C-Xylose-Atemtest lieferte in den Gruppen der Erwachsenen und Kinder ohne Zystische Fibrose repräsentative Ergebnisse, was für zukünftige Nutzung im Rahmen der Diagnostik einer IBF spricht. Bei heranwachsenden Kindern ist lediglich die altersabhängige endogene CO2-Produktion und orozökale Transitzeit zu berücksichtigen. Für die Diagnostik einer IBF speziell bei Patienten mit Mukoviszidose erscheint uns der 13C-Xylose-Atemtest nicht geeignet, was wir hauptsächlich der krankheitsspezifischen generellen Malassimilation, der Malabsorption und der intestinalen Motilitätsstörung zuschreiben. Wir beführworten daher aktuell weiterhin unter Berücksichtigung der ihn beeinflussenden Faktoren die Anwendung des H2-Glukose-Atemtests in der gastroenterologischen Diagnostik einer IBF wegen der einfachen, preiswerten und nichtinvasiven Anwendbarkeit. Weitere Studien sollen in Zukunft klären, ob der 13C-Xylose-Atemest trotz seiner hohen Kosten regelmäßig mit Nutzen im klinischen Alltag anzuwenden ist. Im Vergleich mit dem Goldstandard des Jejunalaspirates müssen Sensitivität und Spezifität des Isotopen-Atemtests in zukünftigen Studien erarbeitet werden.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Nach einer erfolgten Stammzelltransplantion im Rahmen einer Leukämie sollte in regelmäßigen Abständen der hämatopoetische Chimärismus untersucht werden, da ansteigende autologe Anteile einem Rezidiv häufig voran gehen. [33, 35-37] Es wurde in den letzten Jahren beschrieben [50, 52, 54, 55, 81], dass Sequenzpolymorphismen (SPs) als hochempfindliche Marker für die Chimärismusanalyse fungieren können. Durch sie würde eine deutlich höhere Sensitivität erzielt werden, als mit der bisher verwendeten Methode, die Short Tandem Repeats als Marker zur Diskriminierung von Spender und Empfänger benutzt. Ziel dieser Arbeit war es, die Proben von Kindern, die nach einer ALL eine Stammzelltransplantation erhalten hatten, und die bereits mit der STR-Methode untersucht worden waren, mit der RT-PCR-Methode in Hinblick auf die in der Einleitung gestellten Fragen, erneut zu analysieren. Es ist in 96 % der Empfänger-/Spenderpaare möglich unter den 29 ausgewähltenten SPs mindestens einen geeigneten Marker zu finden und sicherlich wäre es möglich noch weitere Sequenz-Polymorphismen hinzu zu nehmen, falls die Informativität der 29 verwendeten nicht ausreichend ist. Es konnte in fast allen Experimenten eine Sensitivität von 0,1 % erreicht werden, mit zunehmender experimenteller Erfahrung immer zuverlässiger, so dass man inzwischen ein Experiment, bei dem diese Sensitivität nicht erreicht wird, wiederholen würde. Durch eine Vereinfachung der Methode mit einem optimierten Primerscreening, universellen Standardreihen und dem Einsatz von einer definierten Menge DNA-Lösung, die zumindest über einen weiten Bereich unabhängig ist von der enthaltenen Konzentration, lässt sich eine Laborroutine entwickeln, die ähnlich zeitaufwändig ist, wie der jetzige Goldstandard, die STR-Methode. Allerdings ist die RT-PCR-Methode derzeit noch deutlich teurer. In dieser Arbeit zeigt sich, dass die Real-Time PCR mit Sequenz Polymorphismen als genetische Marker eine sehr sensitive Methode zur Erfassung autologer Anteile darstellt und in der praktischen Anwendbarkeit mit der bisherigen PCR-Methode mit Short Tandem Repeats zur Differenzierung vergleichbar ist. Häufig lassen sich autologe Signale früher detektieren. Dadurch werden auch mehr Patienten als gefährdet eingestuft. Vor allem Patienten, die zweimal oder öfter in Folge einen gemischten Chimärismus von größer als 0,5 % aufweisen (und sich nicht in der Phase eines abnehmenden Chimärismus befinden) müssen genau beobachtet und engmaschig kontrolliert werden. Bei einer ansteigenden Dynamik ist es häufig sinnvoll, eine Immuntherapie einzuleiten. Nur bei zwei unserer Patienten verschwanden die autologen Signale von alleine wieder. Bei 50 % der Rezidivpatienten und bei 2 der 3 Patienten, die abgestoßen haben, sieht man mit der RT-PCR-Methode früher autologe Signale. Es wäre jetzt in einem nächsten Schritt nötig, bei einem ausreichend großen Patientenkollektiv beide Methoden parallel in einer prospektiven Studie miteinander zu vergleichen.
Die Debatte um die Rolle des Nationalstaates und der Nation als Entität von politischer und ethischer Relevanz in Fragen globaler und sozialer Gerechtigkeit beschäftigt Wissenschaftler aus den Bereichen der Philosophie, Politik, Wirtschaft, Soziologie uvm. Der Politikwissenschaftler und Philosoph David Miller (Oxford) vertritt eine Theorie, die auf der "Nation" als einer eigenen, emergenten Entität aufbaut, die Miller als eine ethisch relvante Gruppe charakterisiert, die u.a. den Willen und das Recht zur politischen Selbstbestimmung hat. Die Welt, so Miller, stellen wir uns am besten als eine Welt der Nationalstaaten vor, in Fragen der gloablen und sozialen Gerechtigkeit existiere tendenziell zu Recht eine Bias zugunsten der eigenen Compatriots und der eigenen Nation. In dieser Magisterarbeit wird zunächst die metaethische Debatte in der Diskussion um Miller herum zwischen kosmopolitischen und kontextuell-relativistischen Theoretikern skizziert. Danach erfolgt eine Betrachtung von Miller Konzept der Nation und der nationalen Identität. Es wird weiterhin betrachtet, warum und wie Miller der Nation ethische Relevanz zuschreibt. Danach werden seine Gründe für ein Recht auf nationale Selbstbestimmung beleuchtet, seine Konzeption sozialer Gerechtigkeit untersucht und Millers Haltung zum Verhältnis des Nationalsstaates vs. der globalen Gemeinschaft betrachtet. Es wird zu dem Schluss gelangt werden, dass Millers liberaler Nationalismus argumentativ zu problematisch bleibt, um überzeugend die kosmopolitischere Position zu Fragen globalen Gerechtigkeit zurückzuweisen. Ebenso wird als unschlüssig erachtet, wie Miller aufgrund seiner eigenen Argumente eine ethische Bevorzugung von Compatriots aufrecht erhalten kann. Im Ausblick erfolgt ein Resümee sowie ein Vorschlag, die Debatte in Richtung transnational motivierter Ansätze hin fortzuführen.
Hintergrund: Die häufigsten infektiösen Ursachen für Durchfallerkrankungen sowohl im Kindes- als auch im Erwachsenenalter sind viraler Genese. Dabei werden Rota-, Noro-, Adeno- und Astroviren in absteigender Reihenfolge benannt. Die Diagnose der oft nosokomialen Infektionen erfolgt durch Virusnachweis in Stuhlproben. Material und Methodik: In dieser retrospektiven epidemiologischen Auswertung wurden anhand der Stuhlproben von Gastroenteritispatienten im Zeitraum 2000 – 2008 die Häufigkeitsverteilung der einzelnen Viren sowie saisonale Aspekte untersucht. Bestimmt wurden des Weiteren die Geschlechts- und die Altersverteilung der Patienten. Der überwiegende Anteil der eingesandten Proben entstammte der Universitätsklinik Frankfurt/Main; hinzu kamen Proben von einigen in näherer Umgebung liegenden Gesundheitsämtern, Krankenhäuser und Laborarztpraxen. Ergebnisse: Die laborchemische Effizienz beträgt ca. 10 – 20 %. In Deutschland ist die winterliche Rotavirusinfektion bei Kleinkindern die häufigste Ursache des Brechdurchfalls. An zweiter Stelle stehen im Wechsel Adeno- und Norovirusinfektionen, während Astrovirusinfektionen in den letzten Jahren selten geworden sind. Schlussfolgerung: In Übereinstimmung mit neuen Studien aus anderen Regionen wird belegt, dass Noroviren des Typ 2 heute einen wesentlichen Anteil bei der infektiösen Gastroenteritis stellen und – im Unterschied zu Rotaviren – vor allem ältere Menschen betroffen sind.
Die vorliegende Arbeit analysierte die Behandlung von Patienten mit Infektionserkrankungen am Zentrum der Zahn-, Mund- und Kieferheilkunde des Klinikums der Johann Wolfgang Goethe-Universität, Frankfurt am Main (Carolinum). Dabei wurde vor allem untersucht, welche Auswirkungen die Reduzierung von Personalressourcen speziell für die Behandlung dieser Patienten ab dem Jahr 2000 hinsichtlich der Betreuung und Versorgung hatte. Die Studie war retrospektiv angelegt und wertete Daten aus den Jahren 1998 bis 2002 aus. Hierfür wurden alle im Archiv lagernden Karteikarten herangezogen und die Daten in eine dafür entwickelte FilemakerPro©-Datenbank übertragen. Im Untersuchungszeitraum nahmen 940 Patienten mit Infektionskrankheiten etwa 3700 Besuche wahr. Regelmäßig erschienen 25% der Patienten, auf sie entfielen 60% aller Besuche. Diese Gruppe wurde einer näheren Betrachtung unterzogen: Die Auswertung der erhobenen Daten zeigte, dass das Ziel der Absenkung der Patientenzahlen und die Anzahl der Behandlungstermine erreicht werden konnte, die systematische Betreuung der Patienten sich jedoch verschlechterte. Der Anteil der sanierten Patienten sank von 34% auf 18% ab, die Zahl der unsystematisch behandelten Patienten verdreifachte sich dagegen von 1999 auf 2000 und blieb bei diesem hohen Wert. Vorsorgebehandlungen nahmen maximal ein fünftel aller Behandlungen ein, mit abnehmender Systematik sank dieser Anteil gegen null. Begünstigender Faktor für eine Sanierung waren ein erstelltes OPG (ersatzweise ein Zahnfilmstatus) und die Erstellung einer Behandlungsplanung. Das Vorhandensein eines OPGs erhöhte aber nicht die Wahrscheinlichkeit für eine folgende Behandlungsplanung. Patienten die an das Carolinum von außerhalb überwiesen wurden, hatten eine größere Chance auf eine Sanierung. Letztlich wurden nur 4% aller regelmäßig erschienenen Patienten systematisch mit Recall betreut, zahnärztlich saniert wurden insgesamt jedoch 30% der behandelten Patienten. Entgegen allgemeiner Annahmen waren kurzfristig abgesagte oder nicht eingehaltene Termine die Ausnahme.
Epidermal growth factor (EGF) receptor belongs to the broad family of enzymatic receptors called receptor tyrosine kinases (RTKs). Generally, the binding of a ligand to these receptors leads to activation of their intracellular kinase activity that sets in motion a cascade of signaling events. In order to ensure appropriate responses to physiological stimuli, the cell is endowed with the ability to regulate signal transduction via numerous mechanisms such as dephosphorylation of the RTK and its substrates as well as downregulation of the RTK. Activation of EGFR is a potent mitogenic (proliferative) and motogenic (cell motility) signal that plays crucial roles during embryonic development and maintenance of adult tissue. EGFR signaling is primarily regulated by ligand-induced receptor internalization with subsequent degradation in lysosomes. While the complex of proteins that are recruited to EGFR after its activation is well understood, proteins that interact with the receptor in the absence of ligand binding are still not systematically studied. With the goal of identifying novel binding partners of non-activated EGFR, a membrane based yeast-two hybrid screen (MYTH) was conducted. MYTH is based on the principle of in vivo reconstitution of the N-terminus (Nub) and C-terminus (Cub) halves of ubiquitin once brought into close proximity. A chimeric protein consisting of EGFR fused to Cub and a transcription factor was used as a bait to screen Nub-tagged cDNA library. Analysis of resultant yeast transformants revealed a total of 87 proteins to interact with EGFR. Of these only 11 were previously shown to bind to EGFR. A majority of the other proteins were shown to interact with the receptor by yeast retransformation. Fifteen were confirmed to bind to EGFR by coimmunoprecipitation assays in mammalian cells. One of the novel EGFR interactors identified in the screen was histone deacetylase 6 (HDAC6). This deacetylase is localized in the cytoplasm and known to deacetylate alpha-tubulin, HSP90 and cortactin. The juxtamembrane region of EGFR binds to the Cterminus of HDAC6. Functionally, overexpression of wild type HDAC6 stabilized ligand-induced degradation of the receptor. On the other hand, deacetylase deficient or EGFR binding compromised mutants of HDAC6 were able to stabilize EGFR only partially. Downmodulation of HDAC6 expression by RNAi markedly accelerated degradation of the receptor. Taken together, HDAC6 is a negative regulator of EGFR downregulation that is dependent on its deacetylase activity and ability to bind to the receptor. Imaging studies revealed that HDAC6 does not affect internalization of EGFR from the plasma membrane but rather influences the post-endocytic trafficking of the receptor-ligand complex to lysosomes. Pulse-chase experiments using fluorophoretagged EGF showed that EGFR is transported faster towards the peri-nuclear region and delivered to late endosomes rapidly in HDAC6 depleted cells. HDAC6 is demonstrated to act, at least partly, by regulating the acetylation of alpha-tubulin. Upon EGFR activation, acetylation of alpha-tubulin on lysine 40 is progressively increased as shown by mass spectrometry and immunoblotting. Forced expression of a dominant negative mutant of alpha-tubulin, but not wild type alpha-tubulin, led to reduced speed and processive movement of early endosomes in GFP-Rab5 expressing cells. In a surprising twist, EGFR is able to phosphorylate HDAC6 on Tyr570. Phosphorylation of Tyr570 and Ser568 leads to inactivation of the deacetylase function of HDAC6 as shown by in vivo and in vitro assays. In summary, HDAC6 diminishes EGFR downregulation by slowing the transport of intracellular vesicles. The inhibitory effect is removed once HDAC6 is phosphorylated on key residues. In line with these findings, two recent reports have shown that hyper-acetylation of alpha-tubulin induced by inhibition of HDAC6 increases the transport of brain derived neurotrophic factor and JNK interacting protein-1 in different cell systems. Acetylated microtubules are more efficient in recruiting motor proteins like kinesin-1 and dynein. These findings indicate that HDAC6 plays an important regulatory role in intracellular trafficking pathways. However, several outstanding issues still remain unresolved. How does acetylation of microtubules influence vesicular trafficking? In this regard, the temporal and spatial dynamics of alpha-tubulin acetylation following EGFR activation should be studied. Furthermore, whether HDAC6 affects the trafficking of other endocytic cargos and additional organelles is an interesting question to address.
The likely manifestations of climate change like flood hazards are prominent topics in public communication. This can be shown by media analysis and questionnaire data. However, in the case of flood risks an information gap remains resulting in misinformed citizens who probably will not perform the necessary protective actions when an emergency occurs. This paper examines more closely a newly developed approach to flood risk communication that takes the heterogeneity of citizens into account and aims to close this gap. The heterogeneity is analysed on the meso level regarding differences in residential situation as well as on the micro level with respect to risk perception and protective actions. Using the city of Bremen as a case study, empirical data from n=831 respondents were used to identify Action Types representing different states of readiness for protective actions in view of flood risks. These subpopulations can be provided with specific information to meet their heterogeneous needs for risk communication. A prototype of a computer-based information system is described that can produce and pass on such tailored information. However, such an approach to risk communication has to be complemented by meso level analysis which takes the social diversity of subpopulations into account. Social vulnerability is the crucial concept for understanding the distribution of resources and capacities among different social groups. We therefore recommend putting forums and organisations into place that can mediate between the state and its citizens.
Atmospheric new particle formation is a general phenomenon observed over coniferous forests. So far nucleation is described as a function of gaseous sulfuric acid concentration only, which is unable to explain the observed seasonality of nucleation events at different measurement sites. Here we introduce a new nucleation parameter including ozone and water vapor concentrations as well as UV-B radiation as a proxy for OH radical formation. Applying this new parameter to field studies conducted at Finnish and German measurement sites it is found capable to predict the occurrence of nucleation events and their seasonal and annual variation indicating a significant role of organics. Extrapolation to possible future conditions of ozone, water vapor and organic concentrations leads to a significant potential increase in nucleation event number.
Atmospheric new particle formation is a general phenomenon observed over coniferous forests. So far nucleation is either parameterised as a function of gaseous sulphuric acid concentration only, which is unable to explain the observed seasonality of nucleation events at different measurement sites, or as a function of sulphuric acid and organic molecules. Here we introduce different nucleation parameters based on the interaction of sulphuric acid and terpene oxidation products and elucidate the individual importance. They include basic trace gas and meteorological measurements such as ozone and water vapour concentrations, temperature (for terpene emission) and UV B radiation as a proxy for OH radical formation. We apply these new parameters to field studies conducted at conducted at Finnish and German measurement sites and compare these to nucleation observations on a daily and annual scale. General agreement was found, although the specific compounds responsible for the nucleation process remain speculative. This can be interpreted as follows: During cooler seasons the emission of biogenic terpenes and the OH availability limits the new particle formation while towards warmer seasons the ratio of ozone and water vapour concentration seems to dominate the general behaviour. Therefore, organics seem to support ambient nucleation besides sulphuric acid or an OH-related compound. Using these nucleation parameters to extrapolate the current conditions to prognosed future concentrations of ozone, water vapour and organic concentrations leads to a significant potential increase in the nucleation event number.
Pollen-based climate reconstructions were performed on two high-resolution pollen marines cores from the Alboran and Aegean Seas in order to unravel the climatic variability in the coastal settings of the Mediterranean region between 15 000 and 4000 years BP (the Lateglacial, and early to mid-Holocene). The quantitative climate reconstructions for the Alboran and Aegean Sea records focus mainly on the reconstruction of the seasonality changes (temperatures and precipitation), a crucial parameter in the Mediterranean region. This study is based on a multi-method approach comprising 3 methods: the Modern Analogues Technique (MAT), the recent Non-Metric Multidimensional Scaling/Generalized Additive Model method (NMDS/GAM) and Partial Least Squares regression (PLS). The climate signal inferred from this comparative approach confirms that cold and dry conditions prevailed in the Mediterranean region during the Oldest and Younger Dryas periods, while temperate conditions prevailed during the Bølling/Allerød and the Holocene. Our records suggest a West/East gradient of decreasing precipitation across the Mediterranean region during the cooler Late-glacial and early Holocene periods, similar to present-day conditions. Winter precipitation was highest during warm intervals and lowest during cooling phases. Several short-lived cool intervals (i.e. Older Dryas, another oscillation after this one (GI-1c2), Gerzensee/Preboreal Oscillations, 8.2 ka event, Bond events) connected to the North Atlantic climate system are documented in the Alboran and Aegean Sea records indicating that the climate oscillations associated with the successive steps of the deglaciation in the North Atlantic area occurred in both the western and eastern Mediterranean regions. This observation confirms the presence of strong climatic linkages between the North Atlantic and Mediterranean regions.
This note shows that in non-deterministic extended lambda calculi with letrec, the tool of applicative (bi)simulation is in general not usable for contextual equivalence, by giving a counterexample adapted from data flow analysis. It also shown that there is a flaw in a lemma and a theorem concerning finite simulation in a conference paper by the first two authors.
Methylphenidat ist ein Dopaminreuptakehemmer, der in seiner chemischen Struktur dem Amphetamin ähnlich ist. Klinisch wird es in der Behandlung des juvenilen Aufmerksamkeitsdefizit-Syndroms (ADHS) eingesetzt. Aber auch eine steigende Anzahl Erwachsener, die am ADHS leiden, profitiert von dessen therapeutischen Wirkungen. Bei gleichzeitiger Einnahme von Methylphenidat und Ethanol wird aus beiden der aktive Metabolit Ethylphenidat gebildet. Zur Charakterisierung der pharmakokinetischen Eigenschaften von Methylphenidat bei gleichzeitiger Ethanolaufnahme, wurden Untersuchungen zum in-vitro Metabolismus in humanem Leberhomogenat und ein von der Ethikkommission und der Bundesbehörde genehmigter Probandenversuch nach AMG durchgeführt. Dabei wurden drei verschiedene Konditionen mit variierter Einnahmereihenfolge der Prüfsubstanzen bei 9 gesunden männlichen Probanden untersucht, die die alleinige Aufnahme von Methylphenidat (20 mg), die Aufnahme von Methylphenidat (20 mg) 30 Minuten nach Ethanolaufnahme (Wein bis zu einer BAK von ca. 0,8 ‰) und die Einnahme von Methylphenidat (20 mg) 30 Minuten vor Ethanolaufnahme (Wein bis zu einer BAK von ca. 0,8 ‰) beinhalteten. Blutproben wurden über einen Messzeitraum bis zu 7 h entnommen und durch eine neu entwickelte validierte Methode mit Hochleistungsflüssigkeitschromatographie-Flugzeitmassenspektrometrie (LC-TOF) analysiert. Die in-vitro Versuche zeigten, dass nur in Gegenwart von Leberenzymen Ethylphenidat gebildet wurde, bei alleiniger Inkubation von Methylphenidat und Ethanol in Puffer konnte die Bildung von Ethylphenidat nicht nachgewiesen werden. In-vitro zeigten die Leberenzyme außerdem für die Ethylphenidatbildung eine Sättigung durch hohe Konzentration von Methylphenidat (Sättigung ab 0,7 mg/l) und Ethanol (Sättigung ab 5,3 g/L), die durchaus in der Anflutungsphase nach Medikamentenaufnahme in der Leber vorliegen können. Der Metabolismus zu Ritalinsäure wurde durch Ethanol deutlich gehemmt. Die enzymatische Reaktion war außerdem signifikant (p < 0,01) durch Natriumfluorid hemmbar. Bei zusätzlicher Inkubation mit Kokain (äquimolar zu Methylphenidat), konnte ebenfalls eine signifikant Verringerung der Bildung (p < 0,01) von Ethylphenidat und Ritalinsäure gezeigt werden. Dies gab einen Hinweis auf das am Metabolismus beteiligte Enzym, die humane Carboxylesterase 1A, die den Metabolismus von Kokain katalysiert. Außerdem konnte eine geringfügige Bildung von Ethylphenidat bei Inkubation von Methylphenidat und Ethanol in Serum gezeigt werden, die über eine durch Fluorid hemmbare Esterase katalysiert wurde. Im Probandenversuch fand sich in Kombination mit Ethanol ebenfalls die Bildung von Ethylphenidat. Die Konzentrationen lagen im Bereich von 0,3-3,2 mikro g/l. Methylphenidat wurde im Bereich von 4,6-28,6 mikro g/l und Ritalinsäure in einem Bereich von 187-442 mikro g/l nachgewiesen, was sich mit Ergebnissen anderer Studien deckt. Aus den quantitativen Daten wurden die pharmakokinetischen Parameter nach Einkompartimentmodell ermittelt. Für Methylphenidat wurden dabei anders als bei Kokain, bei dem sich nach Ethanolaufnahme die Wirkstoffkonzentrationen signifikant erhöhen, keine signifikanten Unterschiede bei Vergleich der 3 untersuchten Konditionen festgestellt, obwohl sich tendenziell höhere Wirkstoffkonzentrationen bei Einnahme zusammen mit Ethanol zeigten. Die Ethanolgabe vor anstatt nach Methylphenidateinnahme verzögerte die Ritalinsäurebildung (tmax 2,6 vs. 1,8 h) und im Vergleich zu der Einnahme von Methylphenidat ohne Ethanol lagen die maximalen Werte (Cmax) signifikant niedriger. Bezüglich Ethylphenidat konnte eine Erhöhung (p < 0,05) der Cmax und der Area under the curve gefunden werden, wenn Alkohol vor Methylphenidat eingenommen wurde. Im Vergleich zu Kokain, das fast 1:1 zu Kokaethylen umgesetzt wird, konnte Ethylphenidat aber nur in Spuren nachgewiesen werden. Ein Proband zeigte neben hohen Methylphenidatkonzentrationen (> 25 ng/ml) niedrige Ritalinsäurekonzentrationen (< 90 ng/ml) bei normaler Ethylphenidatbildung, was auf eine Hemmung des Methylphenidatmetabolismus bezüglich der Hydrolyse zu Ritalinsäure hindeutete. Dieser Proband wurde als „poor metabolizer“ klassifiziert. Von Kokaethylen ist bekannt, dass es bei verlängerter Halbwertszeit eine ähnlich ausgeprägte Wirkung wie Kokain besitzt. Die Eliminationshalbwertszeit von Ethylphenidat war dagegen deutlich kürzer als die von Methylphenidat (1,5 vs. 2,6 h). Die Pharmakodynamik von Ethylphenidat wurde in der Studie nicht erfasst, aus den subjektiven Berichten der Probanden ergaben sich jedoch keine deutlichen Unterschiede in der Medikamentenwirkung bei gleichzeitigem Konsum von Ethanol und Methylphenidat im Vergleich zur alleinigen Methylphenidateinnahme.