Universitätspublikationen
Refine
Year of publication
- 2009 (610) (remove)
Document Type
- Article (179)
- Doctoral Thesis (116)
- Part of Periodical (101)
- Book (64)
- Review (49)
- Conference Proceeding (26)
- Working Paper (17)
- Report (13)
- Diploma Thesis (11)
- Bachelor Thesis (9)
Language
- German (367)
- English (226)
- French (7)
- Portuguese (7)
- Spanish (2)
- Multiple languages (1)
Is part of the Bibliography
- no (610)
Keywords
- Europa (7)
- Deutschland (4)
- Lambda-Kalkül (4)
- China (3)
- Forschung (3)
- Frankfurt <Main> / Universität (3)
- Frankreich (3)
- Zeitschrift (3)
- reactive oxygen species (3)
- Adorno (2)
Institute
- Medizin (122)
- Präsidium (75)
- Biochemie und Chemie (47)
- Gesellschaftswissenschaften (46)
- Rechtswissenschaft (41)
- Geowissenschaften (34)
- Physik (33)
- Biowissenschaften (32)
- E-Finance Lab e.V. (24)
- Informatik (24)
Samples of freshly fallen snow were collected at the high alpine research station Jungfraujoch, Switzerland, during the Cloud and Aerosol Characterization Experiments (CLACE) 5 in February and March 2006. Sampling was carried out on the Sphinx platform. Headspace-solid-phase-dynamic extraction (HS-SPDE) combined with gas chromatography/mass spectrometry (GC/MS) was used to quantify C6–C10 n-aldehydes in the snow samples. The most abundant n-aldehyde was n-hexanal (median concentration 1.324 micro g L -1) followed by n-nonanal, n-decanal, n-octanal and n-heptanal (median concentrations 1.239, 0.863, 0.460, and 0.304 micro g L -1, respectively). A wide range of concentrations was found among individual snow samples, even for samples taken at the same time. Higher median concentrations of all n-aldehydes were observed when air masses reached Jungfraujoch from the north-northwest in comparison to air masses arriving from the southeast-southwest. Results suggest that the n-aldehydes detected most likely are of direct and indirect biogenic origin, and that they entered the snow through the particle phase.
Responding to inadequate awareness of the outstanding importance of biodiversity, the BioFrankfurt network was founded in 2004 in the State of Hesse, Germany. It is presented here as a case study and may serve as a model for other parts of the world, such as the Middle East. In 2007, only about 26% of the German population were familiar with the term “Biodiversity”, and most of them only had a vague idea about its meaning. The BioFrankfurt network of institutions addressed this problem, raising public awareness and supporting research, education and conservation. A regional biodiversity education program has been developed and delivered to more than 500 schools. Since 2007, an innovative public relations campaign combines raising awareness on regional biodiversity issues with activities to improve the public image of the Frankfurt area. Because of its geographical focus, the network’s activities gained the attention of local and regional politicians and other decision makers, culminating in the joint establishment of a new Biodiversity and Climate Research Centre by BioFrankfurt member institutions. The success of current activities attracts interesting partners, resulting in challenging cooperation initiatives. The authors are convinced that the network’s concepts and activities have a great potential to profoundly enhance the notion and acceptance of biodiversity issues elsewhere. Keywords: BioFrankfurt, biodiversity network, education, public awareness, scientifi c communication
The huntsman spider genera Sparianthina Banks, 1929 and Anaptomecus Simon, 1903 are reviewed. The type species of Sparianthina, Sparianthina selenopoides Banks, 1929, is redescribed, illustrated, and recorded from Costa Rica for the first time; a lectotype and paralectotype are designated. Three species are transferred to the genus: Sparianthina pumilla (Keyserling, 1880) comb. n. from Heteropoda Latreille, 1804 (lectotype and paralectotype are designated), Sparianthina rufescens (Mello-Leitão, 1940) comb. n. from Anaptomecus and Sparianthina milleri (Caporiacco, 1955) comb. n. from Macrinus Simon, 1887. The ♂ of S. rufescens (Mello-Leitão, 1940) comb. n. and the ♀ of S. milleri comb. n. are described for the first time. Three new species are described: Sparianthina adisi sp. n., S. deltshevi sp. n., and S. saaristoi sp. n. The male and female of Anaptomecus longiventris Simon, 1903 are described for the first time and the species is recorded from Panama for the first time. Two new species are described: Anaptomecus temii sp. n. and A. levyi sp. n. Keywords: Taxonomy, re-description, transfer, review
A new species of the basal araneomorph spider genus Ectatosticta (Araneae, Hypochilidae) from China
(2009)
The hypochilid spider Ectatosticta davidi (Simon) is redescribed on the basis of adults from Mt. Taibaishan in Shaanxi Province, China; the specimens from Qinghai Province previously identified as E. davidi by most modern authors belong to a new species described as E. deltshevi. Keywords: Araneae, Araneomorphae, Hypochilidae, Ectatosticta, China
Despite prevailing arid conditions, the diversity of terrestrial and freshwater biota in the Middle East is amazingly high and marine biodiversity is among the highest on Earth. Th roughout the Region, threats to the environment are moderate to severe. Despite the outstanding economic and ecological importance of biological diversity, the capacity in biodiversity-related research and academic education is inadequate. The "Middle Eastern Biodiversity Network" (MEBN), founded in 2006 by six universities and research institutes in Iran, Jordan, Germany, Lebanon and Yemen was designed to fi ll this gap. An integrated approach is taken to upgrade biodiversity research and education in order to improve regional ecosystem conservation and management capacities. A wide range of activities are carried out in the framework of the Network, including capacity building in biological collection management and professional natural history curatorship, developing university curricula in biodiversity, conducting scientifi c research, organising workshops and conferences on Middle Eastern biodiversity, and translating the results of biodiversity research into conservation and sustainable development. Keywords: Middle Eastern biodiversity, nature museums, biodiversity research, biodiversity education, biodiversity conservation, biodiversity networks
Das Ziel dieser Studie war die Etablierung von Grenzwerten für die bronchiale Methacholinprovokation durch Vergleich des Aerosol Provokation Systems (APS-SC) mit einem ATS Standard (five-breath dosimeter method, SDM). Unsere Ergebnisse zeigen, dass die APS-SC Methode unter Verwendung eines Kurzprotokolls und des Systems der Firma Cardinal Health eine sichere, schnelle und verlässliche Methode der bronchialen MCP darstellt. Im Schnitt erspart dieses Verfahren acht Minuten gegenüber der klassischen SDM gemäß dem von der ATS empfohlenen „short five breath dosimeter protocol“. Zudem entfallen in der Vorbereitung das Herstellen und die Lagerung mehrerer unterschiedlich konzentrierter Methacholinlösungen; während der Untersuchung existiert daher auch kein Verwechslungsrisiko. Der Test selbst ist für Untersucher und Patient weniger belastend. Die Verwendung einer Konzentration von 16,00 mg/ml für die Methacholin-Testlösung stellt einen guten Mittelweg zwischen akzeptablen Inhalationszeiten innerhalb der Stufen und einer nicht zu aggressiven Konzentration dar, mit der vom Anfang eines Tests bis zu seinem Ende gearbeitet werden kann. Zwischen den Kategorien der BHR für die SDM- und die APS-SC Methode besteht ein enger Zusammenhang. Als Grenzwert für die Annahme einer BHR – definiert als diejenige Methacholindosis bzw. -konzentration, die zu einem Abfall der FEV1 um 20 % vom Ausgangswert führt – stimmt der bestehende und von der ATS publizierte Grenzwert von 8,00 mg/ml am besten mit einer Dosis von 1,00 mg Methacholin in der APS-SC Methode überein.
Akute Hochrisiko-Leukämien oder deren Rezidive, chronische Leukämien, Myelodysplastische Syndrome und Hodgkin- und Non-Hodgkin-Lymphome sind Indikationen für hämatopoetische Stammzelltransplantationen. Das Verfahren ist mit einer hohen Therapie-assoziierten Morbidität und Mortalität (TRM), die bei 5-40% liegt, assoziiert. Hauptprobleme sind dabei neben Infektionen die akute und chronische Transplantatreaktion (Graft-versus-Host-Erkrankung, GvHD). Die TRM variiert je nach Grunderkrankung, Spender und Allgemeinzustand des Patienten. Um Risikofaktoren für die TRM zu identifizieren, analysierten wir in einer retrospektiven Studie 205 allogene pädiatrische SZT in 4 Kliniken, von denen jeweils 2 Kliniken ein hohes bzw. niedriges Risikoprofil hinsichtlich der TRM hatten. Wir überprüften die Anwendbarkeit und Validität des von Matthes-Martin et al. entwickelten Risikoscores (TRMScore), der aus drei Risiko-Punkten Patienten-spezifische (Alter, Grunderkrankung) und Therapie-spezifische (Spender) Charakteristika miteinander kombiniert. Dieser Score teilt die Patienten in 4 TRM–Risikogruppen ein mit einem Score von 0 Punkten (Patient unter 10 Jahren mit HLA-identischen Geschwister als Donor) bis zu 3 Punkten (Patient über 10 Jahren, CR3 und HLA-nicht passenden Spender). Wir modifizierten den TRM-Score von Matthes-Martin et al., indem wir die Patienten mit einem TRM-Score von 0 und 1 in eine erste Gruppe (TRM-Score I) und die Patienten mit dem TRM-Score von 2 und 3 in eine zweite Gruppe zusammen (TRM-Score II) zusammenfassten, und entwickelten den mTRM-Score (modifizierter TRM-Score). Die Indikationen zur SZT waren ALL, AML, CML, Non-Hodgkin-Lymphome, Hodgkin-Lymphome und MDS. Es gab 88 KMT und 115 PBSZT und in 2 Fällen war die Stammzellquelle eine Kombination aus Knochenmark und peripherem Blut. Das Patientenalter lag zwischen 0 und 23 Jahren. Spender waren MSD (26,8%), MRD (1%), MUD (53,2), MMUD (10,2%) und MMRD (8,8). Am LFU lebten 61% der Patienten. Von den 39% der verstorbenen Patienten sind 40% aufgrund eines Rezidivs verstorben und 60% transplantationsassoziiert. Die Gesamt-TRM lag bei 22,4%. Wir teilten transplantationsassoziierte Faktoren in folgende Gruppen ein: Patienten-assoziierte Variablen, Spender-assoziierte, Krankheits-assoziierte, Therapie-assoziierte Variablen und sonstige Variablen. Die logistische Regression zeigte signifikant prognostische Faktoren, die die TRM beeinflussen. Das waren die Klinik (P=0,0045), in der die SZT durchgeführt wurde, das Jahr der SZT (P=0,0457, ab 2001) und der Spendertyp (P=0,0083, kein MSD). Die Diagnose, der Remissionsstatus bei SZT und der TRM-Score waren keine prognostischen Risikofaktoren für die TRM. Bei Anwendung des mTRM-Scores kristallisierte sich dieser als ein Prädiktor für die TRM (P=0,0447) heraus. Ein TRM-Score von I ging mit einer niedrigen TRM-Rate einher. Der mTRM-Score kann aufgrund der Ergebnisse zur Therapieentscheidung herangezogen werden, da er eine Einschätzung der tatsächlichen Überlebenswahrscheinlichkeit für die Patienten möglich macht. Die Klinik als Risikofaktor für die TRM ist nicht alleine durch das Patientenkollektiv und durch die Auswahl des Spendertyps zu erklären. Anhand der 1-Jahres-TRM (23%) von Matthes-Martin et al. errechneten wir die zu erwartende TRM-Rate für unsere Kliniken. Die erwartete TRM wich in Klinik C und Klinik D stark von der beobachteten TRM ab, in Klinik A und Klinik B waren sie annähernd gleich. Ein signifikanter Unterschied bestand nur bei Klinik C mit einem p-Wert von 0,05 bei dem TRM-Score und 0,02 bei dem mTRM-Score. Die Ergebnisse lassen darauf schließen, dass das Outcome der SZT von den Kliniken an sich bzw. deren Therapiemodalitäten beeinflusst wurde.
Short-term memory requires the coordination of sub-processes like encoding, retention, retrieval and comparison of stored material to subsequent input. Neuronal oscillations have an inherent time structure, can effectively coordinate synaptic integration of large neuron populations and could therefore organize and integrate distributed sub-processes in time and space. We observed field potential oscillations (14–95 Hz) in ventral prefrontal cortex of monkeys performing a visual memory task. Stimulus-selective and performance-dependent oscillations occurred simultaneously at 65–95 Hz and 14–50 Hz, the latter being phase-locked throughout memory maintenance. We propose that prefrontal oscillatory activity may be instrumental for the dynamical integration of local and global neuronal processes underlying short-term memory.
Experience-driven formation of parts-based representations in a model of layered visual memory
(2009)
Growing neuropsychological and neurophysiological evidence suggests that the visual cortex uses parts-based representations to encode, store and retrieve relevant objects. In such a scheme, objects are represented as a set of spatially distributed local features, or parts, arranged in stereotypical fashion. To encode the local appearance and to represent the relations between the constituent parts, there has to be an appropriate memory structure formed by previous experience with visual objects. Here, we propose a model how a hierarchical memory structure supporting efficient storage and rapid recall of parts-based representations can be established by an experience-driven process of self-organization. The process is based on the collaboration of slow bidirectional synaptic plasticity and homeostatic unit activity regulation, both running at the top of fast activity dynamics with winner-take-all character modulated by an oscillatory rhythm. These neural mechanisms lay down the basis for cooperation and competition between the distributed units and their synaptic connections. Choosing human face recognition as a test task, we show that, under the condition of open-ended, unsupervised incremental learning, the system is able to form memory traces for individual faces in a parts-based fashion. On a lower memory layer the synaptic structure is developed to represent local facial features and their interrelations, while the identities of different persons are captured explicitly on a higher layer. An additional property of the resulting representations is the sparseness of both the activity during the recall and the synaptic patterns comprising the memory traces. Keywords: visual memory, self-organization, unsupervised learning, competitive learning, bidirectional plasticity, activity homeostasis, parts-based representation, cortical column
Im vorliegenden Papier werden drei Ansätze zur Reform des Familienleistungsausgleichs (FLA) mit jeweils zwei Varianten dargestellt und hinsichtlich ihrer fiskalischen Effekte und Wirkungen in verschiedenen Segmenten der Einkommensverteilung systematisch verglichen. – Mit dem weitestgehenden Konzept, der Kindergrundsicherung, wird ein Existenz sicherndes und zu versteuerndes Kindergeld in Höhe von monatlich 502 Euro bzw. 454 Euro pro Kind vorgeschlagen. Die bisherigen kindbedingten Freibeträge und mehrere Sozialleis-tungen könnten entfallen bzw. reduziert werden. – Daneben werden Kindergelderhöhungen auf einheitlich 238 Euro bzw. 328 Euro pro Kind und Monat, die allen Kindern – auch denen im SGB II-Leistungsbezug – zugute kommen sollen, untersucht. Das Kindergeld wäre wie bisher nicht zu versteuern, die bisherigen kindbedingten Freibeträge würden aber entfallen. – Schließlich wird der Vorschlag einer deutlichen Erhöhung des Kinderzuschlags bei reduzierter Mindesteinkommensgrenze und Wegfall der Höchsteinkommensgrenze erörtert. Zudem ist bei diesem Ansatz ein nochmals erhöhter Kinderzuschlag bei Alleinerziehenden – analog zum Mehrbedarfszuschlag nach dem SGFB II – (erste Variante) oder eine Herabsetzung der Transferentzugsrate auf Nichterwerbseinkommen von 100% auf 70% (zweite Variante) vorgesehen. Die zu erwartenden fiskalischen Belastungen der einfachen Kindergelderhöhung (ohne Be-steuerung) können ohne Weiteres hochgerechnet werden (16 bzw. 35 Mrd. Euro p. a.), die der anderen Reformmodelle sind aber ohne mikroanalytische Fundierung unter Berücksichtigung der Einkommensverteilung kaum abschätzbar. Zwar lassen sich auch die Bruttokosten der Kindergrundsicherung auf einfachem Wege ermitteln (Multiplikation der Kindergeld-Kinder mit der Betragshöhe), die Aggregate der davon abzusetzenden zahlreichen Einsparungen bei anderen Sozialleistungen und insbesondere der Steuermehreinnahmen sind allerdings nicht offensichtlich. Eine erste Überschlagsrechnung hat ergeben, dass die Nettokosten der ersten „großzügigen“ Variante der Kindergrundsicherung (502 Euro) denen der Kindergelderhöhung auf das sächliche Existenzminimum (322 Euro) ohne Besteuerung ungefähr gleich sind (in der Größenordnung von 35 Mrd. Euro). Eine genauere Quantifizierung kann aber nur auf der Ba-sis repräsentativer Mikrodaten und eines Simulationsmodells erfolgen, da insbesondere der Besteuerungseffekt der Kindergrundsicherung von der faktischen Einkommensverteilung abhängt. Auch eine Kostenschätzung für die Kinderzuschlagsreform bedarf mikroanalytischer Verfahren; ungeachtet dessen würde diese auf einen begrenzten Einkommensbereich gerichte-te Reform aber eindeutig die geringsten Kosten verursachen. Für einen systematischen Vergleich der Verteilungswirkungen der Reformvorschläge werden in der vorliegenden Arbeit Modellrechnungen für zwei ausgewählte Haushaltstypen präsen-tiert. Dabei wird deutlich, dass mit dem vergleichsweise begrenzten Konzept der Ausweitung des Kinderzuschlags die Situation von Familien in prekären Einkommensverhältnissen bis zu Familien der unteren Mittelschicht deutlich verbessert werden könnte. Inwieweit dieser Effekt eintreten würde, hängt allerdings auch vom Inanspruchnahmeverhalten ab; bisher ist die Nicht-Inanspruchnahme von Kinderzuschlag und Wohngeld weit verbreitet. Zudem würde sich die Situation der ärmsten Familien, die auf SGB II-Leistungen angewiesen sind, nicht verbessern, und am oberen Rand würden die Entlastungseffekte des FLA als Folge der kind-bedingten Freibeträge weiterhin mit dem elterlichen Einkommen zunehmen. Demgegenüber würden sich bei den Varianten der Kindergelderhöhung (ohne Besteuerung) die deutlichen Verbesserungen gegenüber dem Status quo gleichmäßig über das Einkommensspektrum vom Niedriglohnsegment – bei unverändert problematischen Effekten des Kinderzuschlags (Ein-kommensbruchstelle bei Höchsteinkommensgrenze) – bis in obere Schichten verteilen und erst am oberen Rand mit steigendem Einkommen sinken (infolge des Wegfalls der bisherigen kindbedingten Freibeträge). Die Förderungen durch die Kindergrundsicherung schließlich würden am stärksten im unteren und unteren Mittelbereich ausfallen und – im Gegensatz zu anderen Konzepten – insbesondere verdeckte Armut systembedingt, also quasi „automatisch“, weitgehend abbauen. Im oberen Mittelbereich und hauptsächlich in höheren Schichten würden die Transfers dagegen mit zunehmendem Einkommen kontinuierlich abnehmen. Insgesamt würde dies zu einem vergleichsweise stetig steigenden Verlauf des verfügbaren Familieneinkommens führen; die wegen der hohen Transferentzugsraten des Kinderzuschlags – gegebenenfalls in Kombination mit Wohngeld – häufigen Befürchtungen negativer Arbeitsanreize im unteren Einkommensbereich wären gegenstandslos. Inwieweit die hier diskutierten Reformkonzepte zu einem Abbau von Kinder- und Familien-armut und zu weniger Ungleichheit der personellen Einkommensverteilung führen können, lässt sich allein auf der Basis von Modellrechnungen allerdings nicht absehen. Dazu bedarf es detaillierter Analysen auf der Basis von repräsentativen Mikrodaten, die die faktische Ein-kommensverteilung abbilden und Simulationsrechnungen zur Quantifizierung der Effekte der Reformvarianten – unter Einbeziehung der Finanzierung der jeweiligen Nettokosten – ermöglichen. Daran wird im Projekt „Vom Kindergeld zu einer Grundsicherung für Kinder“ auf Basis der Daten des Sozio-ökonomischen Panels (SOEP) 2007 gearbeitet; die Repräsentativität des Datensatzes hinsichtlich des Nachweises von Einkommens-, insbesondere Transferar-ten wurde bereits geprüft – mit gutem Ergebnis.
In this work we investigate phenomenological aspects of an anisotropic quark-gluon plasma. In the first part of this thesis, we formulate phenomenologicalmodels that take into account the momentumspace anisotropy of the system developed during the expansion of the fireball at early-times. By including the proper-time dependence of the parton hard momentum scale, phard(), and the plasma anisotropy parameter, Xi, the proposed models allow us to interpolate from 0+1 pre-equilibrated expansion at early-times to 0+1 ideal hydrodynamics at late times. We study dilepton production as a valuable observable to experimentally determine the isotropization time of the system as well as the degree of anisotropy developed at early-times. We generalize our interpolating models to include the rapidity dependence of phard and consider its impact on forward dileptons. Next, we discuss how to constrain the onset of hydrodynamics by demanding two requirements of the solutions to the equations of motion of viscous hydrodynamics. We show this explicitly for 0+1 dimensional 2nd-order conformal viscous hydrodynamics and find that the initial conditions are non-trivially constrained. Finally, we demonstrate how to match the initial conditions for 0+1 dimensional viscous hydrodynamics from pre-equilibrated expansion. We analyze the dependence of the entropy production on the pre-equilibrium phase and discuss limitations of the standard definitions of the non-equilibrium entropy in kinetic theory.
Large amplitude intramolecular motions in non-rigid molecules are a fundamental issue in chemistry and biology. The conventional approaches for study these motions by far-infrared and microwave spectroscopy are not applicable when the molecule is non-polar. Therefore, in the current thesis an alternative approach for the investigation of large amplitude intramolecular motions was developed and tested. This new method is based on femtosecond rotational degenerate four-wave mixing spectroscopy (fs DFWM), which is a particular implementation of rotational coherence spectroscopy. The method was successfully applied for the investigation of pseudorotation in pyrrolidine and the ring-puckering vibration in cyclopentene. Another important subject is the photophysics of molecules and molecular clusters which have an ultrashort lifetime of their electronically excited state (photoreactivity). These ultrashort lifetimes often represent a protective mechanism causing photostability. The photoreactivity is usually the manifestation either of an “elementary” reaction, such as proton or electron transfer, which occurs in the excited state or of a fast non-radiative deactivation processes, such as internal conversion via conical intersection of the electronically excited and ground state. Due to a short-lived excited state, the conventional vibrational spectroscopic methods, such as IR depletion detected by resonance two-photon ionization spectroscopy (IR/R2PI), are not applicable for the structural investigation of these systems. Therefore, new approach, termed IR depletion detected by multiphoton ionization with femtosecond laser pulses (IR/fsMPI), was developed for studying the structure of photoreactive microsolvated molecules. The IR/fsMPI technique was applied for investigating the clusters of 1H-pyrrolo[3,2-h]quinoline with water/methanol as well as adenine- and 9-methyl-adenine-hydrates. In addition, the excited state dynamics of bifunctional azaaromatic molecule 7-(2'-pyridyl)indole (7PyIn) was studied by femtosecond pump-probe resonance excitation multiphoton ionization technique (fs REMPI). Under electronic excitation of this molecule a fast proton transfer (phototautomerization) takes place, which is followed by radiationless excited state deactivation process. The fs REMPI spectra lead to the conclusion that the phototautomerization in 7PyIn is coupled with a twisting of the molecule, and that the twisting provides an efficient channel for ultrafast radiationless excited state deactivation. This pattern of excited-state tautomerization/deactivation might be quite general.
The selection of features for classification, clustering and approximation is an important task in pattern recognition, data mining and soft computing. For real-valued features, this contribution shows how feature selection for a high number of features can be implemented using mutual in-formation. Especially, the common problem for mutual information computation of computing joint probabilities for many dimensions using only a few samples is treated by using the Rènyi mutual information of order two as computational base. For this, the Grassberger-Takens corre-lation integral is used which was developed for estimating probability densities in chaos theory. Additionally, an adaptive procedure for computing the hypercube size is introduced and for real world applications, the treatment of missing values is included. The computation procedure is accelerated by exploiting the ranking of the set of real feature values especially for the example of time series. As example, a small blackbox-glassbox example shows how the relevant features and their time lags are determined in the time series even if the input feature time series determine nonlinearly the output. A more realistic example from chemical industry shows that this enables a better ap-proximation of the input-output mapping than the best neural network approach developed for an international contest. By the computationally efficient implementation, mutual information becomes an attractive tool for feature selection even for a high number of real-valued features.
Nahrungsmittelallergikern steht aufgrund inakzeptabler Nebenwirkungen bei der spezifischen Immuntherapie zurzeit noch keine kausale Therapie dieser Erkrankung zur Verfügung. Demzufolge bleibt die Vermeidung der entsprechenden Lebensmittel für Nahrungsmittelallergiker der einzige Weg möglicherweise lebensbedrohlichen allergischen Reaktionen zu entgehen. Ziel dieser Arbeit war es, das Potential eines viralen Vektors für die Verwendung bei der spezifischen Immuntherapie der Lebensmittelallergie zu untersuchen. Die Überlegung dahinter war, das Risiko eines anaphylaktischen Schocks, der bei Injektion eines Allergens immer gegeben ist, durch intrazelluläre Expression des Proteins über das rekombinante Virus zu verringern. Zusätzlich dazu bringt das modifizierte Vacciniavirus Ankara (MVA) ideale Voraussetzungen für eine Allergievakzine mit: Die Infektion mit MVA führt zu einer stark Th1-gerichteten Immunantwort gegen die viral exprimierte Proteine, die möglicherweise die allergische Th2-gerichtete Immunantwort modulieren kann. Die prophylaktische Immunisierung mit MVA-OVA im Mausmodell der systemischen Sensibilisierung gegen Ovalbumin (OVA) führte dosisabhängig zur Suppression der spezifischen IgE-Antwort und somit zum Schutz vor allergischer Sensibilisierung. Zusätzlich konnte nachgewiesen werden, dass die Vakzinierung mit MVA-OVA eine dauerhafte spezifische IgG-Antwort induziert. Diese Daten unterstützen das Konzept einer Modulation der Sensibilisierung durch MVA-Vakzine. Weiterhin wurden zwei rekombinante Vakzinen generiert, mittels derer entweder das Tropomyosin aus Garnelen (Pen a 1) oder das Lipid-Transfer-Protein aus Haselnuss (Cor a 8) intrazellulär exprimiert werden konnte. Dass die Sensibilisierung gegen diese Allergene häufig mit schweren allergischen Reaktionen korreliert, unterstreicht die Notwendigkeit einer verbesserten Immuntherapie in diesem Bereich. Während MVA-Pen a 1 in ausreichender Menge und Qualität für die Verwendung im Mausmodell hergestellt werden konnte, gelang es nicht, eine homogene Population von MVA-Cor a 8 zu gewinnen, in der das Selektionsgen K1L nicht mehr vorhanden war. Parallel zur Virusherstellung wurden Mausmodelle der Sensibilisierung gegen Cor a 8 und Pen a 1 entwickelt. Vergleiche unterschiedlicher Mausstämme ergaben, dass sich Mäuse des Stammes CBA/J am empfänglichsten für eine systemische Sensibilisierung mit Cor a 8 sind. Aufgrund von Erfahrungen zur Sensibilisierung gegen Pen a 1 wurden Mäuse des Stammes C3H/HeJ bei der Etablierung eines Garnelenallergiemodells verwendet. Es zeigte sich, dass durch die intragastrale Applikation von 0,1 mg Pen a 1 sowie Choleratoxin als Adjuvanz (drei Gaben in dreiwöchigem Abstand), gefolgt von einer systemischen Gabe des Allergens mit Aluminiumhydroxid eine spezifische Sensibilisierung hervorgerufen werden konnte, die nach Exposition mit Pen a 1 zu allergischen Symptomen führte. Auch in diesem Modell bot die prophylaktische Immunisierung mit MVA-Pen a 1 Schutz vor Pen a 1spezifischer Sensibilisierung. Um die therapeutische Effektivität der Vakzine ermitteln zu können, muss die begonnene Etablierung eines Allergiemodells mit symptomauslösenden Provokationen und immunologischen Analysen weitergeführt werden. Der in dieser Studie beobachtete starke schützende Effekt einer Vakzinierung mit MVA vor allergischer Sensibilisierung und das sehr gute Sicherheitsprofil dieses Vektors in klinischen Studien zu anderen Erkrankungen belegt die Möglichkeit einer Verwendung von MVA zur erfolgreichen spezifischen Immuntherapie der Lebensmittelallergie.
Das Modifizierte Vacciniavirus Ankara (MVA) entstand nach mehr als 500 Passagen des Chorioallantois Vacciniavirus Ankara (CVA) auf Hühnerembryofibroblasten. Mit der Passagierung ging u.a. der Verlust zahlreicher Vacciniavirus Virulenzfaktoren einher, wodurch MVA einen hochattenuierten Phänotyp aufweist. Bei mangelnder Pathogenität für humane Organismen verfügt das MVA jedoch über eine vollständig erhaltene Genexpression inklusive integrierter Fremdgene. Hierdurch bedingt ist MVA ein vielversprechender Kandidat nicht nur als Pockenimpfstoff der dritten Generation, sondern auch als Vektorvakzine gegen zahlreiche Infektionskrankheiten sowie in der Tumor-assoziierten Immunotherapie. Ein wesentliches Charakteristikum der Attenuierung von MVA ist seine fehlende Replikationsfähigkeit in humanen Zellen. Bislang ist es jedoch noch nicht möglich gewesen, die hierfür verantwortlichen genetischen Veränderungen eindeutig zuzuordnen. Vorangegangene Arbeiten wiesen darauf hin, dass sich der beschriebene Effekt zumindest teilweise auf die Zeitspanne zwischen zwei Vorläufern des MVA eingrenzen lässt. So zeigten sich humane HeLa Zellen für das CVA 152 permissiv, während gegenüber dem CVA 386 nur noch eine Semipermissivität bestand. Mit Hilfe einer vergleichenden Sequenzanalyse von CVA 152 und CVA 386 konnten verschiedene Deletionen identifiziert werden, deren Auftreten potentiell verantwortlich für den veränderten Phänotyp von CVA 386 ist. In diesem Zusammenhang wurden im Rahmen dieser Arbeit die Gene C12L, C14L, C15L und C16L der Deletion I und die Gene M1L, M2L und der OLR 037 der Deletion II charakterisiert. Durch Transfektion von Expressionsplasmiden wurden die entsprechenden Proteine bezüglich ihrer Expression und posttranslationalen Modifikation, sowie ihrer subzellulären Verteilung untersucht. So ließ sich für das Protein M2 eine posttranslationale N-Glykosylierung und die Lokalisation innerhalb des trans-medialen Golgiapparats nachweisen. Zusätzlich konnte eine Sekretion des M2 Proteins im Zellüberstand transfizierter 293T-Zellen gezeigt, sowie die bereits publizierte Inhibition der NF-:B-Aktivierung durch extrazellulär zugegebenes M2 Protein eingeleitet werden. Die Proteine C14 und C15 zeigten sich in der Laserscanmikroskopie mitochondrial lokalisiert; C16 dagegen kolokalisierte neben einer hauptsächlich intranukleären Verteilung zusätzlich mit F-Aktin. Ferner ergaben sich für die Proteine C14 und C15 erste Hinweise auf eine inhibitorische Funktion gegenüber Staurosporin-induzierter Apoptose.
In der Arbeit wird Fuzzy-Regression als mögliche ökonometrische Analysemethode bei fehlerbehafteten Daten modelliert und erprobt. Dazu ist die interpretatorische Lücke zu schließen, die einerseits zwischen den Datenproblemen in empirischen Datensätzen und ihrer Modellierung als Fuzzy-Daten und andererseits zwischen der Modellierung der Fehlereinflüsse in den Fuzzy-Daten und den Aussagen und Analysen besteht, die auf der Basis einer Fuzzy-Regression über die vorliegenden Daten getroffen werden können. Da bereits eine Vielzahl von Ansätzen zur Fuzzy-Regression entwickelt wurden, wird als das Hauptproblem nicht die Modellierung der Fuzzy-Methoden als solcher gesehen, sondern vielmehr die fehlende Vorstellung über die mögliche Bedeutung der Fuzzy-Modellierungen im konkreten Anwendungsfall. Die Arbeit vollzieht deshalb im Sinne einer Machbarkeitsstudie die verschiedenen Schritte von den Fehlereinflüssen in wirtschaftsbezogenen Datensätzen und deren Modellierung als Fuzzy-Daten bis hin zur explorativen Analyse mit Fuzzy-Regression nach. Dabei werden für jeden der Schritte exemplarische Beispiele ausgewählt, um die Denkweise der Fuzzy-Modellierung auszuarbeiten und die Möglichkeiten und Grenzen der Methoden aufzuzeigen. Die Untersuchungen zeigen, dass vor allem die Fuzzy-Modellierung von Fehlereinflüssen in den Merkmalsdaten und die Beschreibung von gleichförmigen Strukturen in den Fehlereinflüssen durch Fehlerszenarien als Analyseinstrumente geeignet sind, da sie eine Grundlage für eine weitergehende Untersuchung der Fehlereinflüsse bilden. Als Ausblick auf ein Schätzmodell für Fuzzy-Regression bei Fehlern in den Daten werden abschließend einige Ansätze für die Einbettung des Regressionsproblems für Fuzzy-Merkmalsvariablen in die Verteilungsmodelle für Fuzzy-Zufallsvariablen vorgestellt, die auf der Konstruktion der Fehlerszenarien basieren.
Ziel dieser Arbeit war es, zwei Atemtestverfahren in der Diagnostik der bakteriellen Fehlbesiedelung im Dünndarm bei Kindern mit Zystischer Fibrose miteinander zu vergleichen. Der moderne 13C-Xylose-Atemtest wurde dem bisher etablierten H2-Glukose-Atemtest gegenübergestellt. Dabei sollte zusätzlich die Suszeptibilität der CF-Patienten für eine IBF eruiert werden. Die Probanden absolvierten einen kombinierten 13C-Xylose-/H2-Glukose-Atemtest. Retrospektiv wurden zunächst die H2-Ergebnisse der einzelnen Probandengruppen analysiert und dann den maximalen PDR-, cPDR- und den DOB-Werten gegenübergestellt. Die Ergebnisse der aktuellen Studie sprechen für die Prädisposition der CF-Patienten, eine IBF zu entwickeln. Kliniker sollten aber bei der Interpretation der Atemtestergebnisse stets die beeinflussenden Faktoren, die vor allem die Erkrankung der Mukoviszidose mit sich bringt, berücksichtigen und therapeutische Konsequenzen vorsichtig umsetzen. So können die erhöhten Wasserstoffkonzentrationen im H2-Glukose-Atemtest bei CF-Kindern nicht ausschließlich einer IBF zugeschrieben werden. Die hohen Nüchternwerte sind auch Ausdruck der allgemeinen Maldigestion, Malabsorption und der intestinalen Motilitätsstörung, die bei diesen Patienten vorherrschen. Der 13C-Xylose-Atemtest lieferte in den Gruppen der Erwachsenen und Kinder ohne Zystische Fibrose repräsentative Ergebnisse, was für zukünftige Nutzung im Rahmen der Diagnostik einer IBF spricht. Bei heranwachsenden Kindern ist lediglich die altersabhängige endogene CO2-Produktion und orozökale Transitzeit zu berücksichtigen. Für die Diagnostik einer IBF speziell bei Patienten mit Mukoviszidose erscheint uns der 13C-Xylose-Atemtest nicht geeignet, was wir hauptsächlich der krankheitsspezifischen generellen Malassimilation, der Malabsorption und der intestinalen Motilitätsstörung zuschreiben. Wir beführworten daher aktuell weiterhin unter Berücksichtigung der ihn beeinflussenden Faktoren die Anwendung des H2-Glukose-Atemtests in der gastroenterologischen Diagnostik einer IBF wegen der einfachen, preiswerten und nichtinvasiven Anwendbarkeit. Weitere Studien sollen in Zukunft klären, ob der 13C-Xylose-Atemest trotz seiner hohen Kosten regelmäßig mit Nutzen im klinischen Alltag anzuwenden ist. Im Vergleich mit dem Goldstandard des Jejunalaspirates müssen Sensitivität und Spezifität des Isotopen-Atemtests in zukünftigen Studien erarbeitet werden.
In this thesis we have studied the physics of different ultracold Bose-Fermi mixtures in optical lattices, as well as spin 1=2 fermions in a harmonic trap. To study these systems we generalized dynamical mean-field theory for a mixture of fermions and bosons, as well as for an inhomogeneous environment. Generalized dynamical mean-field theory (GDMFT) is a method that describes a mixture of fermions and bosons. This method consists of Gutzwiller mean-field for the bosons, and dynamical mean-field theory for the fermions, which are coupled on-site by the Bose-Fermi density-density interaction and possibly a Feshbach term which converts a pair of up and down fermions into a molecule, i.e. a boson. We derived the self-consistency equations and showed that this method is well-controlled in the limit of high lattice coordination number z. We develop real-space dynamical mean-field theory for studying systems in an inhomogeneous environment, e.g. in a harmonic trap. The crucial difference compared to standard DMFT is that we are taking into account that different sites are not equivalent to each other and thus take into account the inhomogeneity of the system. Different sites are coupled by the real-space Dyson equation. ...
Ziel der vorliegenden Arbeit ist es, Erkenntnisse über die Beeinflussung der Überlebensraten von Patienten mit Nierenzellkarzinom durch verschiedene Faktoren wie Tumorstadium und Tumorgröße, Differenzierungsgrad, Metastasierung und histologischer Subtyp zu gewinnen. Insbesondere soll die Frage geklärt werden, inwiefern die Prognose der Patienten von der Art der Diagnosestellung, also inzidentell oder symptomatisch, abhängt. Zu diesem Zweck wurden die Daten aller Patienten, die zwischen dem 01.01.1997 und dem 31.12.2005 in der urologischen Universitätsklinik in Frankfurt am Main mit der Verdachtsdiagnose eines Nierenzellkarzinoms radikal nephrektomiert bzw. teilreseziert worden sind, retrospektiv erhoben und analysiert. Die Patienten wurden entweder der asymptomatischen Gruppe zugeteilt, bei denen der Nierentumor zufällig diagnostiziert werden konnte oder der Gruppe bei der die Diagnose erst aufgrund einer auf den Nierentumor oder seine Metastasen hinweisenden Symptomatik gefunden werden konnte. Die mediane Nachbeobachtungszeit betrug 50 Monate (1 bis 112 Monate). Insgesamt konnte die Diagnose Nierenzellkarzinom bei 246 (68,72 %) Patienten zufällig gestellt, nur 112 (31,28 %) präsentierten sich mit darauf hinweisender Symptomatik. Inzidentelle Tumoren waren signifikant kleiner als Symptomatische (4,8cm versus 6,8cm) und wiesen signifikant häufiger ein niedriges Tumorstadium (p<0,001) und eine günstigere Differenzierung auf (p<0,001). Zusätzlich kam es seltener zu Fernmetastasen sowie zum Befall regionaler Lymphknoten. Hinsichtlich der Verteilung von Alter und Geschlecht ergaben sich keine Unterschiede zwischen den beiden Gruppen. Therapeutisch ergaben sich in bezug auf die durchführbare Operationsart signifikante Unterschiede. Während bei immerhin 36,18% aller Patienten mit inzidentellen Tumoren eine Teilresektion durchgeführt werden konnte, war solch ein nierenerhaltendes Vorgehen nur bei 6,25% aller Patienten mit symptomatischen Tumoren möglich. Die Überlebenswahrscheinlichkeit erwies sich als signifikant besser für Patienten mit inzidentell diagnostizierten Tumoren (p<0,001), genauso wie für Tumoren mit besserem Differenzierungsgrad (p<0,001), günstigerem Staging (p<0,001) sowie geringerer Größe (p<0,001). In multivariater Analyse bestätigten sich nur Diagnoseart, Differenzierungsgrad und das Vorhandensein bzw. Nichtvorhandensein von Metastasen als unabhängige prognostische Variablen. Patienten, bei denen der Tumor zufällig anhand einer Routineuntersuchung in völlig asymptomatischem Stadium gefunden werden kann, haben demnach eine signifikant bessere Überlebenswahrscheinlichkeit. Aus diesem Grund sowie aus der Tatsache heraus, dass bisherige Ergebnisse systemischer Therapien die Langzeitüberlebensrate der Patienten mit fortgeschrittenen Nierenzellkarzinomen meist nicht verbessern können, bleibt die Frage der Notwendigkeit einer Screeninguntersuchung weiter bestehen. Jede Möglichkeit einer frühzeitigen Diagnose sollte genutzt werden. Hier bietet sich insbesondere die Sonographie als kostengünstigstes und nicht invasives Verfahren an. Inwieweit die Empfehlung einer generellen und flächendeckenden Screeningmaßnahme sinnvoll ist, wird allerdings weiterhin anhand ihrer Kosteneffizienz beurteilt und kann deshalb beim Nierenzellkarzinom aufgrund der doch vergleichsweise geringen Prävalenz nicht ausgesprochen werden. Doch erscheint die Forderung sinnvoll, die Nieren im Rahmen abdominaler Sonographien aus nichturologischen Gründen immer mit zu untersuchen. Die kurze Zeit, die dies für den geübten Untersucher in Anspruch nimmt, ist tolerierbar; vor allem im Hinblick auf den Benefit, den diese Untersuchung für den Patienten haben kann. Ebenso sinnvoll und realistisch erscheint, dass jeder Urologe zumindest bei seinen Patienten in regelmäßigen Abständen die Nieren schallt oder es Ihnen zumindest als entgeltliche IGeL Leistung anbietet. Die Entdeckung eines Nierentumors in einem frühen asymptomatischen Stadium erscheint sowohl hinsichtlich der Therapie als auch ihrer Prognose am günstigsten zu sein.
Nach einer erfolgten Stammzelltransplantion im Rahmen einer Leukämie sollte in regelmäßigen Abständen der hämatopoetische Chimärismus untersucht werden, da ansteigende autologe Anteile einem Rezidiv häufig voran gehen. [33, 35-37] Es wurde in den letzten Jahren beschrieben [50, 52, 54, 55, 81], dass Sequenzpolymorphismen (SPs) als hochempfindliche Marker für die Chimärismusanalyse fungieren können. Durch sie würde eine deutlich höhere Sensitivität erzielt werden, als mit der bisher verwendeten Methode, die Short Tandem Repeats als Marker zur Diskriminierung von Spender und Empfänger benutzt. Ziel dieser Arbeit war es, die Proben von Kindern, die nach einer ALL eine Stammzelltransplantation erhalten hatten, und die bereits mit der STR-Methode untersucht worden waren, mit der RT-PCR-Methode in Hinblick auf die in der Einleitung gestellten Fragen, erneut zu analysieren. Es ist in 96 % der Empfänger-/Spenderpaare möglich unter den 29 ausgewähltenten SPs mindestens einen geeigneten Marker zu finden und sicherlich wäre es möglich noch weitere Sequenz-Polymorphismen hinzu zu nehmen, falls die Informativität der 29 verwendeten nicht ausreichend ist. Es konnte in fast allen Experimenten eine Sensitivität von 0,1 % erreicht werden, mit zunehmender experimenteller Erfahrung immer zuverlässiger, so dass man inzwischen ein Experiment, bei dem diese Sensitivität nicht erreicht wird, wiederholen würde. Durch eine Vereinfachung der Methode mit einem optimierten Primerscreening, universellen Standardreihen und dem Einsatz von einer definierten Menge DNA-Lösung, die zumindest über einen weiten Bereich unabhängig ist von der enthaltenen Konzentration, lässt sich eine Laborroutine entwickeln, die ähnlich zeitaufwändig ist, wie der jetzige Goldstandard, die STR-Methode. Allerdings ist die RT-PCR-Methode derzeit noch deutlich teurer. In dieser Arbeit zeigt sich, dass die Real-Time PCR mit Sequenz Polymorphismen als genetische Marker eine sehr sensitive Methode zur Erfassung autologer Anteile darstellt und in der praktischen Anwendbarkeit mit der bisherigen PCR-Methode mit Short Tandem Repeats zur Differenzierung vergleichbar ist. Häufig lassen sich autologe Signale früher detektieren. Dadurch werden auch mehr Patienten als gefährdet eingestuft. Vor allem Patienten, die zweimal oder öfter in Folge einen gemischten Chimärismus von größer als 0,5 % aufweisen (und sich nicht in der Phase eines abnehmenden Chimärismus befinden) müssen genau beobachtet und engmaschig kontrolliert werden. Bei einer ansteigenden Dynamik ist es häufig sinnvoll, eine Immuntherapie einzuleiten. Nur bei zwei unserer Patienten verschwanden die autologen Signale von alleine wieder. Bei 50 % der Rezidivpatienten und bei 2 der 3 Patienten, die abgestoßen haben, sieht man mit der RT-PCR-Methode früher autologe Signale. Es wäre jetzt in einem nächsten Schritt nötig, bei einem ausreichend großen Patientenkollektiv beide Methoden parallel in einer prospektiven Studie miteinander zu vergleichen.