Refine
Year of publication
Document Type
- Doctoral Thesis (5713) (remove)
Language
- German (3626)
- English (2058)
- French (9)
- Latin (5)
- Spanish (5)
- Portuguese (4)
- Italian (3)
- Multiple languages (2)
- mis (1)
Has Fulltext
- yes (5713)
Is part of the Bibliography
- no (5713)
Keywords
- Deutschland (15)
- Gentherapie (14)
- HIV (13)
- Apoptosis (12)
- Membranproteine (12)
- NMR-Spektroskopie (11)
- RNA (11)
- RNS (10)
- Schmerz (10)
- Entzündung (9)
Institute
- Medizin (1517)
- Biowissenschaften (832)
- Biochemie und Chemie (729)
- Physik (595)
- Pharmazie (329)
- Biochemie, Chemie und Pharmazie (307)
- Geowissenschaften (139)
- Neuere Philologien (115)
- Gesellschaftswissenschaften (110)
- Psychologie (97)
Die akute myeloische Leukämie (AML) ist eine aggressive Erkrankung des Knochenmarks, welche die Hämatopoese beeinträchtigt und zu Knochenmarksversagen führt. Trotz des Fortschritts in der AML-Therapie bleibt die Prognose für die meisten Patienten schlecht, sodass neue Therapieansätze für die Behandlung dringend benötigt werden. Autophagie, ein kataboler Abbauprozess von zellulären Komponenten, ist nachweislich an der Entstehung von AML beteiligt. Als zentraler Regulator von Zellüberleben, Homöostase und Stoffwechsel, dient die Autophagie als Nährstoffquelle durch die Wiederverwertung von Makromolekülen während begrenzter Energieversorgung. AML-Zellen benötigen ein konstantes Nährstoff- und Energieniveau, um ihre Vermehrung aufrechtzuerhalten. Dies wird durch eine Umstellung von Stoffwechselwegen, insbesondere des mitochondrialen Stoffwechsels einschließlich der oxidativen Phosphorylierung (OXPHOS) und des Tricarbonsäurezyklus (TCA), erreicht.
Mehrere Studien haben die Hemmung der Autophagie für die Behandlung von Krebs als vielversprechenden Ansatz vorgestellt. Doch eine Monotherapie mit Autophagie-Inhibitoren erzielte nur eine geringfügige Wirksamkeit. Eine mögliche Erklärung hierfür ist die Entstehung von Kompensationsmechanismen, die zum Ausgleich der Autophagie-Hemmung in Krebszellen entstehen. Bis heute sind diese Kompensationsmechanismen kaum untersucht. Ziel dieser Arbeit ist es, ein geeignetes Autophagie-Gen zu identifizieren, mit dem sich die Rolle der Autophagie-Hemmung für das Überleben von AML-Zellen untersuchen lässt. Zusätzlich sollen die kompensatorischen Mechanismen, die durch die Autophagie-Hemmung in AML-Zellen entstehen können, untersucht werden, um neue metabolische Angriffspunkte zu identifizieren, die für Kombinationstherapien genutzt werden können.
Zu Beginn der Arbeit wurde ein gezielter CRISPR/Cas9 Screen in zwei humanen AML-Zelllinien durchgeführt, um Autophagie-Gene zu identifizieren, deren Verlust eine Proliferationsstörung in AML-Zellen verursacht, welche überwunden werden kann. Validierungsexperimente zeigten, dass der Verlust von ATG3 das Zellwachstum signifikant verminderte. Außerdem zeigte die Messung des Autophagie-Fluxes, dass der Verlust von ATG3 die Autophagie stark beeinträchtigte. Dies wurde durch eine Western-Blot-Analyse, die eine beeinträchtigte LC3-Lipidierung zeigte, und durch eine Immunfluoreszenzanalyse der Autophagosomen-Bildung mittels konfokaler Mikroskopie, die eine geringere Anzahl von Autophagosomen in ATG3-defizienten Zellen ergab, bestätigt. Deshalb wurde der Knockdown von ATG3 in AML Zellen verwendet, um die Mechanismen, die zum Ausgleichen der Autophagie-Hemmung entstehen, zu untersuchen. Zuerst wurde die Zellproliferation in fünf verschiedenen AML Zelllinien über sieben Tage betrachtet. In allen Zellenlinien führte der Verlust von ATG3 mittels small hairpin RNA zu verminderter Zellproliferation. Diese Ergebnisse zeigen die wichtige Rolle von ATG3 in der Autophagie und dass Autophagie-Hemmung durch ATG3-Verlust das Wachstum von AML-Zellen beeinträchtigt.
Da der Verlust von ATG3 die Proliferation von AML-Zellen beeinträchtigte, wurde eine Zellzyklusanalyse durchgeführt. Eine reduzierte S-Phase bestätigte die verminderte Proliferation in ATG3-depletierten AML-Zellen, doch der Zellzyklus war grundsätzlich nicht gestoppt. Darüber hinaus ergab die Analyse der Apoptose, dass diese unter dem Verlust von ATG3 erhöht war, aber etwa 50% der Zellen blieben vital. Diese Beobachtungen deuten darauf hin, dass AML-Zellen trotz des Verlusts der ATG3-abhängigen Autophagie weiter proliferieren können.
Um die Mechanismen zur Kompensation der Autophagie-Hemmung zu untersuchen, wurden die Auswirkungen des ATG3-Verlusts auf die mitochondriale Homöostase untersucht. Die Mitophagie sowie das mitochondriale Membranpotenzial und die Masse unterschieden sich zwischen Kontroll- und ATG3-depletierten AML-Zellen nicht, was darauf hindeutet, dass die mitochondriale Homöostase durch den Verlust von ATG3 nicht beeinträchtigt ist. Als nächstes wurde die mitochondriale Funktion durch Messung des ATP-Spiegels und der OXPHOS untersucht. Die ATP-Level und die OXPHOS waren nach dem Verlust von ATG3 in AML-Zellen erhöht, was auf eine gesteigerte mitochondriale Aktivität bei Autophagie-Defizienz hinweist.
Algorithms and data structures constitute the theoretical foundations of computer science and are an integral part of any classical computer science curriculum. Due to their high level of abstraction, the understanding of algorithms is of crucial concern to the vast majority of novice students. To facilitate the understanding and teaching of algorithms, a new research field termed "algorithm visualisation" evolved in the early 1980's. This field is concerned with innovating techniques and concepts for the development of effective algorithm visualisations for teaching, study, and research purposes. Due to the large number of requirements that high-quality algorithm visualisations need to meet, developing and deploying effective algorithm visualisations from scratch is often deemed to be an arduous, time-consuming task, which necessitates high-level skills in didactics, design, programming and evaluation. A substantial part of this thesis is devoted to the problems and solutions related to the automation of three-dimensional visual simulation of algorithms. The scientific contribution of the research presented in this work lies in addressing three concerns: - Identifying and investigating the issues related to the full automation of visual simulations. - Developing an automation-based approach to minimising the effort required for creating effective visual simulations. - Designing and implementing a rich environment for the visualisation of arbitrary algorithms and data structures in 3D. The presented research in this thesis is of considerable interest to (1) researchers anxious to facilitate the development process of algorithm visualisations, (2) educators concerned with adopting algorithm visualisations as a teaching aid and (3) students interested in developing their own algorithm animations.
During my PhD, I was applying the clumped isotope technique to modern brachiopods and fossil belemnites, and I conducted methodological work. Carbonate clumped isotope thermometry is a tool to reconstruct carbonate precipitation temperatures. In contrast to oxygen isotope thermometry, i.e., the δ18O-thermometer, the carbonate clumped isotope thermometer does not require an estimate for the oxygen isotope composition of the seawater, as it considers the fractionation of isotopes exclusively amongst carbonate isotopologues. The ∆47 value of a carbonate expresses the abundance of the 13C–18O bond bearing carbonate isotopologue, within the carbonate, relative to its random distribution. In thermodynamic equilibrium, the ∆47 value of a given carbonate is solely a function of the carbonate precipitation temperature. However, kinetic isotope fractionations, i.e., vital effects, driven by diffusion, pH or incomplete oxygen isotope exchange between water and dissolved inorganic carbonate species can cause the carbonate to be precipitated with isotopic compositions that are offset from those predicted for thermodynamic equilibrium.
Brachiopods serve as important geochemical archives of past climate conditions. To investigate the nature and significance of kinetic controls on brachiopod shell δ18O and ∆47 values, in collaboration with the BASE-LiNE Earth ITN, I analysed the bulk and clumped isotope compositions of eighteen modern brachiopod shells, collected from different geographic locations and water depths that cover a substantial range of growth temperatures. Growth temperatures and seawater δ18O values for each brachiopod were independently determined. Most of the analysed brachiopods exhibit combined offsets from clumped and oxygen isotope equilibrium, and there is a significant negative correlation between the offset values. The observed correlation slope between offset ∆47 and offset δ18O point to the importance of kinetic effects associated with Knudsen diffusion and incomplete hydration and hydroxylation of CO2 (aq), occurring during biomineralisation. The correlations between the growth rates of the analysed brachiopods and both the offset ∆47 and the offset δ18O values provide further arguments for the presence of kinetic effects. In conclusion, the oxygen and clumped isotope composition of modern brachiopod shells are affected by growth rate-induced kinetic effects that hinder their use for palaeoceanography.
The Compressed Baryonic Matter (CBM) is one of the core experiments at the future Facility for Anti-proton and Ion Research (FAIR), Darmstadt, Germany. Its goal is to investigate nuclear matter characteristics at high net-baryon densities and moderate temperatures. The Silicon Tracking System (STS) is a central detector system of CBM.
It is placed inside a 1Tm magnet and operated at a temperature of about −10 °C to keep radiation-induced bulk current in the 300μm double-sided microstrip silicon sensors low. The design of the STS aims to minimize the material budget in the detector acceptance (2.5° < θ < 25°). In order to do so, the readout electronics is placed outside the active area, and the analog signals are transported via ultra-thin micro-cables. The STS comprises eight tracking stations with 876 modules. Each module is assembled on a carbon fiber ladder, which is subsequently mounted in the C-shaped aluminum frame.
The scope of the thesis focused on developing a modular control system framework that can be implemented for different sizes of experimental setups. The developed framework was used for setups that required a remote operation, like the irradiation of the powering modules for the front-end electronics (FEE), but also in laboratory-based setups where the automation and archiving were needed (thermal cycling of the STS electronics).
The low voltage powering modules will be placed in the vicinity of the experiment, therefore they will experience a total dose of up to 40mGy over the 10 years of STS lifetime.
To estimate the effects of the radiation on the low-voltage module performance, a dedicated irradiation campaign took place. It aimed at estimating the rate of radiation induced soft errors, that lead to the switch off of the FEE.
Regular power cycles of multiple front-end boards (FEBs) pose a risk to the experiment operation. Firstly, such behavior could negatively influence the physics performance but also have deteriorating effects on the hardware. It was further assessed what are the limitations of the FEBs with respect to the thermal cycling and the mechanical stress. The results served as an indication of possible failure modes of the FEB at the end of STS lifetime. Failure modes after repeated cycles and potential reasons were determined (e.g., Coefficient of Thermal Expansion (CTE) difference between the materials).
Due to the conditions inside the STS efficient temperature and humidity monitoring and control are required to avoid icing or water condensation on the electronics or silicon sensors. The most important properties of a suitable sensor candidate are resilience to the magnetic field, ionizing radiation tolerance, and fairly small size.
A general strategy for ambient parameters monitoring inside the STS was developed, and potential sensor candidates were chosen. To characterize the chosen relative humidity sensors the developed control framework was introduced. A sampling system with a ceramic sensor and Fiber Optic Sensors (FOS) were identified as reliable solutions for the distributed sensing system. Additionally, the industrial capacitive sensors will be used as a reference during the commissioning.
Two different designs of FOS were tested: a hygrometer and 5 sensors multiplexed in an array. The FOS hygrometer turned out to be a more reliable solution. One of the possible reasons for a worse performance is a relatively low distance between the subsequent sensors (15 cm) and a thicker coating. The results obtained from the time response study pointed out that the thinner coating of about 15μm should be a good compromise between the humidity sensitivity and the time response.
The implementation of the containerized-based control system framework for the mSTS is described in detail. The deployed EPICS-based framework proved to be a reliable solution and ensured the safety of the detector for almost 1.5 years. Moreover, the data related to the performance of the detector modules were analyzed and significant progress in the quality of modules was noted. Obtained data was also used to estimate the total fluence, which was based on the leakage current changes.
The developed framework provided a unique opportunity to automate and control different experimental setups which provided crucial data for the STS. Furthermore, the work underlines the importance of such a system and outlines the next steps toward the realization of a reliable Detector Control System for STS.
RNA research is very important since RNA molecules are involved in various gene regulatory mechanisms as well as pathways of cell physiology and disease development.1 RNAs have evolved from being considered as carriers of genetic information from DNA to proteins, with the three major types of RNA involved in protein synthesis, including messenger RNA (mRNA), transfer RNA (tRNA), and ribosomal RNA (rRNA).2 In addition to the RNAs involved in protein synthesis numerous regulatory non-coding RNAs (ncRNAs) have been discovered in the transcriptome. The regulatory ncRNAs are classified into small ncRNAs (sncRNAs) with transcripts less than 200 nucleotides (nt) and long non-coding RNAs (lncRNAs) with more than 200 nt.3
LncRNAs represent the most diverse and versatile class of ncRNAs that can regulate cellular functions of chromatin modification, transcription, and post-transcription through multiple mechanisms.4 They are involved in the formation of RNA:protein, RNA:RNA and RNA:DNA complexes as part of their gene regulatory mechanism.4,5 The RNA:DNA interactions can be divided into RNA:DNA heteroduplex formation, also called R-loops, and RNA:DNA:DNA triplex formation. In triplex formation, RNA binds to the major groove of double-stranded DNA through Hoogsteen or reverse Hoogsteen hydrogen bonding, resulting in parallel or anti-parallel triplexes, respectively. In vitro studies have confirmed the formation of RNA:DNA:DNA triplexes.6 However, the extent to which these interactions occur in cells and their effects on cellular function are still not understood, which is why these structures are so exciting to study (Chapter I RNA:DNA:DNA Triplexes).
This cumulative thesis investigates several functional and regulatory important RNAs. The first project involves the improved biochemical and biophysical characterization of RNA:DNA:DNA triplex formation between lncRNAs of interest and their target genes. Triplex formation was confirmed by a series of experiments including electromobility shift assays (EMSA), thermal melting assays, circular dichroism (CD), and liquid state nuclear magnetic resonance (NMR) spectroscopy. The following is a summary of the main findings of these publications.
In research article 5.1, the oxygen-sensitive HIF1α-AS1 was identified as a functionally important triplex-forming lncRNA in human endothelial cells using a combination of bioinformatics techniques, RNA/DNA pulldown, and biophysical experiments. Through RNA:DNA:DNA triplex formation, endogenous HIF1α-AS1 decreases the expression of several genes, including EPH receptor A2 (EPHA2) and adrenomedullin (ADM), by acting as an adaptor for the repressive human silencing hub (HUSH) complex, which has been studied by our collaborators in the groups of Leisegang and Brandes.
2) Triplex formation between HIF1α-AS1 and the target genes EPHA2 and ADM was investigated in biochemical and biophysical studies. The EMSA results indicated that HIF1α-AS1 forms a low mobility RNA:DNA:DNA triplex complex with the EPHA2 DNA target sequence. The CD spectrum of the triplex showed distinct features compared to the EPHA2 DNA duplex and the RNA:DNA heteroduplex. Melting curve analysis revealed a biphasic melting transition for triplexes, with a first melting point corresponding to the dissociation of the RNA strand with melting of the Hoogsteen hydrogen bonds. The second, higher melting temperature corresponds to the melting of stronger Watson-Crick base pairing. Stabilized triplexes were formed using an intramolecular EPHA2 DNA duplex hairpin construct in which both DNA strands were attached to a 5 nucleotide (nt) thymidine linker. This approach allowed improved triplex formation with lower RNA equivalents and higher melting temperatures. By NMR spectroscopy, the triplex characteristic signals were observed in the 1H NMR spectrum, the imino signals in a spectral region between 9 and 12 ppm resulting from the Hoogsteen base pairing. To elucidate the structural and sequence specific Hoogsteen base pairs 2D 1H,1H-NOESY measurements of the EPHA2 DNA duplex and the HIF1α-AS1:EPHA2 triplex were performed. The 1H,1H-NOESY spectrum of the HIF1α-AS1:EPHA2 triplex with a 10-fold excess of RNA was semi-quantitatively analyzed for changes in the DNA duplex spectrum. We discovered, strong and moderate attenuation of cross peak intensities in the imino region of the NOESY spectrum. This attenuation was proposed to result from weakening of Watson-Crick base pairing by Hoogsteen hydrogen bonding induced by RNA binding. The Hoogsteen interactions can be mapped based on the analysis of the cross peak attenuation in the NOESY spectra, which we used to generate a structural model of the RNA:DNA:DNA triplex. These biophysical results support the physiological function of HIF1α as a triplex-forming lncRNA that recruits the HUSH-epigenetic silencing complex to specific target genes such as EPHA2 and ADM, thereby silencing their gene expression through RNA:DNA:DNA triplex formation.
The Alborz Mountains are forming a ~100 km wide, E-W trending mountain chain where individual summits are up to 5000 m in elevation. The Alborz Mountains range are part of the Alpine orogen and are straddling a 2000 km wide area S of the Caspian Sea. The rocks of the Alborz Mountains consist of Neogen sediments, which are affected by folding and faulting. In the western part of the Alborz Mountains the folds and faults are trending NW-SE, whereas in the eastern part they are trending NE-SW. GPS data confirm N-S shortening including dextral strike-slip along ESE-WNW trending faults, and sinistral strike-slip along ENE-WSW trending faults. The present thesis is focusing on the active Garmsar salt nappe, the fragmented roof of which is pierced by rock salt which extruded near the front of the Alborz Mountains Range. During the past 5 m.y. the front of the Alborz chain migrated towards SSW on top of the salt of the Garmsar basin. The salt was squeezed towards SSW and took place at the Great Kavir. The extruded salt is forming the Eyvanekey plateau between the cities of Eyvanekey and Garmsar. Both the Garmsar salt nappe and the Eyvanekey plateau are dextrally displaced for ca. 9 km along the Zirab-Garmsar fault. Structural analyses of the Garmsar salt nappe indicate three different groups of joints which are trending perpendicular and parallel to the local mechanical anisotropy. The folds of the study area are congruent (type 2 and 3 after Ramsay) resulting from viscose inhomogeneous flow. InSAR-Investigations suggest the Alborz Mountains to be lifted up by ca. 1 cm/a, while horizontal shortening is active at a rate of 8 ±2 mm/a. These values are consistent with GPS data. Based on nine „Advanced Synthetic Aperture Radar“ (ASAR) scenarios, produced by the ENVISAT satellite of the European space agency between 2003 and 2006, we used interferograms to map the displacement via 22 increments during 2 – 18 months. The results suggest that the topographic height of the surface of the salt is changing at a rate which is controlled by the season. The displacement ranges from subsidence at -40 to -50 mm/a to uplift of 20 mm/a. In order to investigate the time-dependent deformation with high spatial resolution, we used algorithms which are based on data of small base lines (SBAS). The resulting interferometric SAR time series analyses also suggest that the study area is largely subsiding at a rate that is controlled by the seasons. The map with the averaged LOS deformation velocities, on the other hand, suggests the subsidence to increase from the upper part of the salt nappe towards deeper topographic 5 levels of the agricultural lowlands. The major part of subsidence is probably caused by the annual rainfall which results in subrosion of salt. The spatial changes in the subsidence rate are probably controlled by the distribution of fountains, mining activity at the margin of the salt glacier, and faults and fractures inside the salt. Striking seasonal imprints are obvious along the agricultural areas which are surrounding the Garmsar salt nappe. These areas are rapidly subsiding in summer and spring when groundwater is used for irrigations. The maximum rate of subsidence (40-50 mm/a) is located E and W of the Eyvanekey plateau, where large areas are irrigated. The maximum displacement is 20 mm/a in the farmland and 5 mm/a in the center of the salt nappe. Depth estimates using Euler deconvolution method for gravimetric and magnetic data suggest the salt to extrude from a depth less than ca. 2000 m. The gravity field of the study area is characterized by strong anomalies in the SW and weak anomalies in the NE. A considerable negative anomaly in the N indicates that the northern part subsided, whereas the southern part was lifted up. The seismic data show three major horizons inside the Miocene sediments: the Lower Red Formation, the Qom Formation, and the Upper Red Formation. The western part of the study area seems to be free from salt domes. The layers of the upper part of the Qom Formation show thinning along the NE and NW trending faults. In some areas the seismic reflectors indicate steep faults close the saddle of the folds. NE-SW-, NW-SE and E-Wtrending faults prevail. Analogue experiments have been carried out to extend our knowledge about the evolution of the Garmsar salt dome. We used a scaled model (34 cm * 25 cm * 2.5 cm) that was shortened perpendicular to its long side. The wedge shape of the Alborz Mountains was simulated by a wedge consisting of Styrofoam. Rock salt was simulated using Polydimethylsiloxan (PDMS), a linear viscous material with a viscosity of 2.3*104 Pa s and a density of 0.96 g/cm3 at room temperature. Other sediments were modeled using dry quartz sand. The experimental results can be used to simulate the structural evolution of the study area: The Alborz deformation front was emplaced on top of the salt rocks in the Garmsar area while migrating towards SSW. A salt basin and a salt extrusion have also been produced in the model. Cross sections through the wedge shaped analogue model indicate N- and S-dipping reverse faults, which are in line with the wedge shape of the Alborz chain. Moreover, ENE-WSW trending sinistral and ESE-WNW trending dextral strike-slip faults led to N-S shortening during the Miocene. Structural marker horizons, 6 which have been turned into Z-folds on the western fold limbs and to S-folds on the eastern fold limbs, are comparable with the folds of the study area. Solving the problem of waste is one of the central tasks of environmental protection. It is becoming increasingly difficult to find suitable sites that are acceptable to the public. Salt and salt formations have relevant properties to be utilizing as a repository for each kind of waste. The favorable properties make rock salt highly suitable as a host rock, in particular for nonradioactive and radioactive wastes. The Qom and Garmsar basins are the nearest salt diapirs to the Tehran province, and there are suitable repositories for waste disposal. Based on surface and subsurface data, the Garmsar salt diapir has been investigated as a case example for its suitability as a host and repository for various types of waste. The data used are based on field studies, interferometry, and geophysical investigations. The results of this study suggest the deep bedded salt of the Garmsar Salt Basin to be an appropriate host for the deposition of industrial waste. Rock salt of surficial layers or domes, on the other hand, is not regarded as an appropriate candidate for waste disposal.
Das positions-spezifisch integrierende TRE5-A Retrotransposon besitzt zwei Promotorregionen (A- und C-Modul). Für das C-Modul konnte ein spezifisch bindendes Protein (CbfA) gefunden werden, das vermutlich über die Expression des Minusstrang-Transkripts regulativ in den Transpositionsmechanismus eingreift. Gleichzeitig stellt CbfA in D. discoideum einen kritischen Faktor dar, der sowohl auf das Wachstum als auch auf die Differenzierung Einfluss nimmt.
Es konnte gezeigt werden:
• Der AT-Haken in CbfA ist für die DNA-Bindung essentiell. Die Inaktivierung hat zur Folge, dass keine Differenzierung stattfindet. Es scheint, dass primär der AT-Haken für die DNA-Bindung sorgt und von den Zinkfingern unterstützt wird.
• Die JmjC-Domäne in CbfA ist essentiell. Transformanden mit CbfA ohne aktive JmjC-Domäne zeigen Defekte sowohl in Wachstum als auch Differenzierung.
• CbfA ist ein nukleares Protein. Es konnte zwar keine Kernlokalisationssequenz identifiziert werden, jedoch weisen die Versuche auf zumindest eine Kernlokalisierungssequenz im C-Terminus des cbfA hin.
• Ein C-terminal verkürztes CbfA ist funktionslos: wahrscheinlich aufgrund fehlender Kernlokalisation und somit fehlender DNA-Bindung.
• Ein N-terminal verkürztes CbfA ist teilweise funktionsfähig: die Komplementation in JH.D2-Zellen führt zu einer partiellen Revertierung hin zum Phänotyp der AX2-Zellen.
• Struktur-Homologien der JmjC-Domäne in CbfA zu Mitgliedern aus der Familie der Fe(II)/2OG-Oxygenasen, DNA-bindende Motive und die Lokalisation im Zellkern weisen auf eine Funktion des CbfAs als Chromatin-Remodeller im Zellkern hin.
• In der Transit von Wachstums- zu Entwicklungsphase kann der CbfA-Mangel durch artifizielle Proteinase A-Expression ausgeglichen werden, aber nicht durch Komplementation mit YakA, Adenylat-Zyklase oder cAMP Rezeptor 1.
• CbfA fungiert wahrscheinlich als Regulator der acaA-Transkription auf Ebene der chromosomalen Strukturen.
• cbfB, ein weiteres Gen mit einer JmjC-Domäne wurde in D. discoideum identifiziert, die Gensequenz vervollständigt und vom Dictyostelium Genom-Projekt verifiziert.
In vorliegender Studie wurde lebend und tot gesammeltes Schalenmaterial der Europäischen Flussperlmuschel Margaritifera margaritifera verschiedener Lokalitäten in Schweden, Finnland und Deutschland (bzw. Frankreich) sklerochronologisch und isotopengeochemisch untersucht. Sauerstoffisotopen-Zeitreihen, trendbereinigte und standardisierte stabile Kohlenstoffisotopen-Zeitreihen (SSCI) sowie jährliche Zuwachsraten (SGI-Zeitreihen) jeder der acht Populationen sind zu Compound-Chronologien zusammengefasst und auf Zusammenhänge mit Temperatur, Sonnenflecken-Zyklen und Niederschlag untersucht sowie auf Korrelationen mit verschiedenen Klimaindizes (z.B. dem Dipol der Meeres-Oberflächenwasser Temperatur-Anomalien im Nordatlantik, NADP-SST, und der Nordatlantischen Oszillation, NAO) getestet worden. Im Vergleich ergaben sich für die geglätteten Zeitreihen (25-Jahresfilter) Korrelationskoeffizienten von r = 0,57 (SGI Master-Chronologie und NAO) bzw. r = 0,59 (Master-Chronologie) und NADP-SST. Obwohl weder Isotopendaten noch Zuwachschronologien der Muscheln auf hochfrequenten Signalen hohe Korrelationen mit instrumentellen Messdaten aufweisen, sind dekadische Klimaoszillationen deutlich repräsentiert. Mit zunehmendem Lebensalter nimmt der Schalenzuwachs exponentiell ab. Gleichzeitig nähern sich die d13C-Werte der Schale dem d13CDIC-Wert des Wassers, der bei den hier untersuchten Lokalitäten zwischen -9,3 ‰ und -12,7 ‰ lag. Erst im hohen Lebensalter findet also die Schalenbildung nahezu im kohlenstoffisotopischen Gleichgewicht mit dem umgebenden Medium statt. In der Jugend der Tiere hingegen wirken sich lokalitätsspezifische Trends aus. Extrinsische Faktoren führen zu drei Mustern: 1) Trends hin zu stärker negativen d13C-Werten (um etwa -4,5 ‰) in den Bächen Nuortejaurbäcken (NJB) und Grundträsktjärnbäcken (GTB), 2) Trends hin zu weniger stark negativen d13C-Werten (um etwa +4,5 ‰) in den großen Flüssen (GJ: Görjeån, NWS: Tarn/Frankreich) und 3) Schwankungen um etwa ±1,5 ‰ um einen Mittelwert (RG: Regnitz). Der Einfluss auf die d13C-Trends könnte möglicherweise in Veränderungen der Bioproduktivität begründet sein, da sich diese unmittelbar auf den DIC-Pool des umgebenden Milieus und des Habitats auswirkt. In den Sauerstoffisotopen spiegelte sich die geographische Herkunft des untersuchten Materials wider. Die Chronologien der am nördlichsten gelegenen Populationen wiesen d18OMittelwerte von -11,5 ‰ (GJ), bzw. -9,5 ‰ (NJB, GTB) auf, die RG-Chronologie von -7,9 ‰ und die Zeitreihe der NWS von -5,3 ‰. Im Gegensatz zu anderen Arbeiten zeigten die untersuchten Individuen jedoch keinen statistischen Zusammenhang mit annuellen Temperaturdaten. Als beeinflussende Faktoren kommen die Schneeschmelze und die isotopengeochemische Ausprägung des Habitats (See, Fluss, Bach) in Frage. Eine sehr hohe Korrelation von r = -0,74 (25-Jahresfilter) wurde zwischen der Görjeån-Chronologie (d18OAragonit) und Niederschlagsraten für das in der Nähe des Flusses gelegene Jokkmokk festgestellt.
Millionen von Menschen weltweit leiden unter Kniegelenksarthrose. Ursachen hierfür sind nicht nur die altersbedingte Abnutzung des Knorpels, sondern auch erhöhte Beanspruchung durch Sport und Arbeit, verschiedene Gelenkserkrankungen, entzündliche oder rheumatische Ursachen, aber auch verschiedene Kniegelenksverletzungen. Zu den Therapieansätzen gehören als biologische Defektfüllung die Knorpelinduktionsverfahren, wie das Debridement, die Abrasionsarthroplastik, die Pridiebohrung, die darauf bauende Microfracture, die autologe Chondrozytentransplantation und die Transplantation chondrogener Materialien. Die künstliche Defektfüllung ist der Einsatz von Teil- und Totalprothesen. Ziel dieser Arbeit ist es gewesen, Patienten mit hochgradigen Kniegelenksarthrosen klinisch vor und nach der Microfracture zu erfassen, wobei der Schmerzverlauf im Vordergrund gestanden hat. Ausserdem ist die Schmerzsypmptomatik und die operativen Ergebnisse mit einem bestehendem Knochenmarksödem korreliert worden. In dieser retrospektiven klinischen Studie sind 59 Patienten mit einem arthroskopisch gesicherten Knorpelschaden von mindestens Grad III nach Outerbridge der Microfracture durch denselben Operateur unterzogen worden. Bei 26 Patienten ist präoperativ ein MRT durchgeführt worden. Zur klinischen Auswertung ist von allen Patienten ein Fragebogen beantwortet worden, der zum einen allgemeine Fragen, wie Symptomdauer, auslösende Faktoren für die Beschwerden und subjektive Besserung beinhaltet, zum anderen Fragen nach dem Score von Insall et al. enthält. Der Score nach Insall et al. setzt sich aus Knie- und Funktionsscore zusammen; es können jeweils 0 bis 100 Punkte erreicht werden. Ausserdem werden alle Patienten prä- und postoperativ untersucht. Präoperativ haben 98,3% der Patienten Schmerzen gehabt; 86,4% weisen Einschränkungen in ihrem täglichen Aktivitäten auf und 1,7% der Patienten haben ein instabiles Knie. Postoperativ sind 42,4% der Patienten schmerzfrei geworden; weitere 30,5% haben nur noch milde Schmerzen angegeben. Im Bereich ihrer täglichen Aktivität geben 49,2% der Patienten noch Probleme beim Treppenlaufen an. Insgesamt haben 78% der Patienten eine allgemeine subjektive postoperative Besserung angegeben. Im MRT sind bei 17 Patienten eine Grad-IV-Läsion vor allem am medialen Femur und korrelierend am medialen Femur und an der medialen Tibia gesehen worden. Ausserdem sind bei 15 Patienten Meniskusverletzungen und bei 6 Patienten Bandverletzungen diagnostiziert worden. Von den 26 Patienten mit einem präoperativen MRT sind bei 17 Patienten ein Knochenödem gefunden worden. In der Arthroskopie sind bei 57 von 59 Patienten ein Knorpelschaden des Grades IV, am häufigsten am medialen Femur gesehen worden. Arthroskopisch sind bei 34 Patienten Meniskusverletzungen und bei 5 Patienten Bandverletzungen diagnostiziert worden. Zur Verwertung des Knie- und Funktionsscores sind statistische Tests erhoben und die jeweiligen Medianwerte ermittelt worden. Der Medianwert des Kniescore liegt präoperativ bei 55 Punkten, postoperativ bei 95 Punkten. Der Medianwert des Funktionsscore liegt präoperativ bei 80 Punkten, postoperativ bei 90 Punkten. Die Patienten weisen im Kniescore eine deutlichere Besserung als im Funktionsscore auf, da die prä- und postoperative Differenz grösser gewesen ist. Somit haben wir uns auf den Schmerzverlauf der Patienten konzentriert und haben den Schmerzverlauf der Patienten mit Knochenödem nochmals hervorgehoben. Wir sind zu dem Schluss gekommen, dass das klinische Outcome von Faktoren, wie Alter des Patienten, Symptomdauer und Aktivitätsgrad abhängt. Begleitverletzungen, wie Meniskus- und/oder Bandverletzungen, oder Erkrankungen, wie Morbus Ahlbäck oder Osteochondrosis dissecans stellen kein Hindernis im Heilungsprozess dar. Ebenso zeigt ein Knochenmarksödem assoziiert mit einem Trauma keine Signifikanz in der allgemeinen Besserung.
Bei dieser Arbeit handelt es sich um eine retrospektive, klinische Studie, die die Bedeutung prognostischer Faktoren beim Morbus Hodgkin behandelt. Das Patientenkollekiv umfasst 136 Patienten, die an Morbus Hodgkin erkrankt sind. Mittels der bisher verwendeten und damals etablierten Risikofaktoren und der Stadienklassifikation nach Ann Arbor erfolgte eine prognostische Einteilung, anhand deren das jeweilige Chemotherapieprotokoll festgelegt worden ist. Zunächst wurden die Patienten anhand ihrer Risikofaktoren in zwei Gruppen untergliedert, die prognostisch günstigere, EBOEP I-Gruppe und die prognostisch ungünstigere EBOEP II-Gruppe. Nach Einführung des EEP-Protokolls wurde eine dritte Patientengruppe gebildet, die sich, genau wie die EBOEP I-Gruppe, in einem günstigen Stadium befand und nun nach dem EEP-Schema behandelt wurde. Der Vergleich der prognostischen Einteilung nach den Risikofaktoren mit dem neu entwickelten prognostischen Index nach Hasenclever et. al führte zu einem überraschenden Resultat. Nach der alten Einteilung anhand der Risikofaktoren zeigen beide EBOEP-Gruppen nahezu gleiche Ergebnisse mit 2,16 und 2,59 Risikofaktoren pro Patient für EBOEP I und EBEOP II. Die EEP-Patienten haben ein günstigeres Ergebnis mit 1,17 Risikofaktoren pro Patient. Verwendet man den neuen geprüften Prognostischen Index zur Einteilung derselben Patienten, erhält man andere Werte. Hierbei zeigen die Patienten der EBOEP I- und der EEP-Gruppe ähnliche prognostische Eigenschaften mit einem prognostischen Index pro Patient mit 1,48 bzw. 1,43 für die jeweiligen Gruppen. Betrachtet man sich nun das rezidivfreie Überleben nach 5 Jahren erkennt man deutlich schlechtere Ergebnisse der EEP- im Gegensatz zur EBOEP I-Gruppe. Auch die Resultate der Überlebenswahrscheinlichkeit nach 5 Jahren ist für das EEP-Patientenkollektiv ungünstiger. Dies bedeutet, dass die vermeintlich prognostisch günstigere Patientengruppe schlechtere posttherapeutische Ergebnisse zeigt. Der Grund dafür liegt darin, dass anhand der Einteilung nach den alten Risikofaktoren eine günstige Prognose erwartet worden ist und die Patienten eine weniger intensive Chemotherapie erhielten. Nach dem neuen prognostischen Index jedoch zeigten die Patienten der EEP-und der EBOEP I-Gruppe kaum Unterschiede. Die Bedeutung prognostischer Faktoren liegt darin, eine adäquate prognostische Einteilung treffen zu können, um die entsprechenden, der Krankheit angepassten, Therapiekonzepte anzuwenden. Weniger intensive Chemotherapien, die die Gefahren einer Zytostatika - bedingten Leukämie oder das Auftreten von Zweittumoren reduzieren, sind allerdings erstrebenswert für die Patientenkollektive mit einer gesicherten günstigen Prognose, die auch mit dieser geringer dosierten Therapie zuverlässig geheilt werden können.
Development of the timing system for the Bunch-to-Bucket transfer between the FAIR accelerators
(2017)
The FAIR project is aiming at providing high-energy beams of ions of all elements from hydrogen to uranium, antiprotons and rare isotopes with high intensities. The existing accelerator facility of GSI and the future FAIR facility employ a variety of circular accelerators like heavy ion synchrotrons (SIS18 and SIS100) and storage rings (ESR, CRYRING, CR and HESR) for the preparation of secondary beams and experiments. Bunches are required to be transferred into rf buckets among GSI and FAIR ring accelerators for different purposes. Without the proper transfer, the beam will be subject to various beam quality deterioration and even to beam losses. Hence, the proper bunch-to-bucket (B2B) transfer between two rings is of great importance for FAIR and is the topic, which has been investigated in this thesis.
These circular accelerators of GSI and FAIR have different ratios in their circumference. For example, the circumference ratio between SIS100 and SIS18 is an integer and between SIS18 and ESR is close to an integer and between CR and HESR is far away from an integer. The ring accelerators are connected via a complicated system of beam transfer lines, targets for the secondary particle production and the high energy separators mentioned above. For FAIR, not only the primary beams are required to be transferred from one ring to another, but also the secondary beams, e.g. the antiproton or rare isotope beams produced by the antiproton (pbar) target, the fragment separator (FRS) or the superconducting fragment separator (Super-FRS). An important topic for this system of accelerators is the proper transfer of beam between the different circular accelerators. Bunches of one ring must be transferred into buckets of another ring within an upper bound time constraint (e.g. 10 ms for most FAIR use cases) and with an acceptable B2B injection center mismatch +-1 degree for most FAIR use cases). Hence, a flexible FAIR B2B transfer system is required to realize the different complex B2B transfers between the FAIR rings in the future. In the focus of the system development and of this thesis is the transfer from SIS18 to SIS100, which can be tested at GSI on the transfer from SIS18 to ESR and from ESR to CRYRING. The system is based on the existing technical basis at GSI, the low-level radio frequency (LLRF) system and the FAIR control system. It coordinates with the Machine Protection System (MPS), which protects SIS100 and subsequent accelerators and experiments from damage caused by high intensity primary beams in case of malfunctioning. Besides, it indicates the beam status and the actual beam injection time for the beam instrumentation and diagnostics.
The conceptual realization of the FAIR B2B transfer system was introduced in this thesis for the first time. It achieves the most FAIR B2B transfers with a tolerable B2B injection center mismatch (e.g. +-1 degree) and within an upper bound time (e.g. 10 ms). It supports two synchronization methods, the phase shift and frequency beating methods. It is flexible to support the beam transfer between two rings with different ratios in their circumference and several B2B transfers running at the same time, e.g. the B2B transfer from SIS18 to SIS100 and at the same time the B2B transfer from ESR to CRYRING. It is capable to transfer beam of different ion species from one machine cycle to another and to transfer beams between two rings via the FRS, the pbar target and the Super-FRS. It allows various complex bucket filling pattern. In addition, it coordinates with the MPS system, which protects the SIS100 and subsequent accelerators or experiments from beam induced damage.
A list of criteria for the preservation of beam qualities during the rf frequency modulation of the phase shift method was analyzed. As an example the beam reaction on three different rf frequency modulation examples were analyzed for SIS18 beams. According to the beam dynamic analysis, there is a maximum value for the rf frequency modulation. The first derivative of the rf frequency modulation must be continuous and small enough and the second derivative must be small enough.
In addition to the analysis from the viewpoint of beam dynamics, two test setups were built. The first test setup was used to characterize the FAIR timing network – white rabbit network for the B2B transfer. In the second test setup, the firmware of the FAIR B2B transfer system was evaluated, which was running on the soft CPU, LatticeMico32, of the Scalable Control Unit - the FAIR standard Front End Controller. Besides, the boundary conditions of the different trigger scenarios of the SIS18 extraction and SIS100 injection kicker magnets were investigated. Finally, the application of the FAIR B2B transfer system for all FAIR use cases was demonstrated.
The dissertation plays a significant important role for the realization of the FAIR B2B transfer system and the further practical application of the system to all FAIR use cases.
Multi-view microscopy techniques are used to increase the resolution along the optical axis for 3D imaging. Without this, the resolution is insufficient to resolve subcellular events. In addition, parts of the images of opaque specimens are often highly degraded or masked. Both problems motivate scientists to record the same specimen from multiple directions. The images, then have to be digitally fused into a single high-quality image. Selective-plane illumination microscopy has proven to be a powerful imaging technique due to its unsurpassed acquisition speed and gentle optical sectioning. However, even in the case of multi view imaging techniques that illuminate and image the sample from multiple directions, light scattering inside tissues often severely impairs image contrast.
Here we show that for c-elegans embryos multi view registration can be achieved based on segmented nuclei. However, segmentation of nuclei in high density distribution like c-elegans embryo is challenging. We propose a method which uses 3D Mexican hat filter for preprocessing and 3D Gaussian curvature for the post-processing step to separate nuclei. We used this method successfully on 3 data sets of c-elegans embryos in 3 different views. The result of segmentation outperforms previous methods. Moreover, we provide a simple GUI for manual correction and adjusting the parameters for different data.
We then proposed a method that combines point and voxel registration for an accurate multi view reg- istration of c-elegans embryo, which does not need any special experimental preparation. We demonstrate the performance of our approach on data acquired from fixed embryos of c-elegans worms. This multi step approach is successfully evaluated by comparison to different methods and also by using synthetic data. The proposed method could overcome the typically low resolution along the optical axis and enable stitching to- gether the different parts of the embryo available through the different views. A tool for running the code and analyzing the results is developed.
Das Ziel der Studie bestand einerseits in der Untersuchung der Zusammenhänge zwischen der sich im Vorschulalter entwickelnden Theory of Mind und dem sich ebenfalls zu diesem Zeitpunkt ausbildenden episodischen Gedächtnis unter der Berücksichtigung verschiedener potentieller Einflussfaktoren, wie beispielsweise den sprachlichen und exekutiven Fähigkeiten der Kinder. Auf der anderen Seite sollten zudem die Veränderungen innerhalb der einzelnen Konstrukte im zeitlichen Verlauf zwischen dem vierten und fünften Lebensjahr abgebildet werden. Dazu wurden 40 Kindern an zwei im Abstand von einem Jahr stattfindenden Erhebungszeitpunkten verschiedenste Aufgaben zur Erfassung ihrer jeweiligen Fähigkeiten in den unterschiedlichen kognitiven Bereichen vorgelegt. Das Durchschnittsalter der Kinder zum Zeitpunkt der ersten Messung betrug M = 38.73 Monate (SD = 2.84) und beim zweiten Messzeitpunkt M = 51.03 Monate (SD = 2.89). Anhand der erhobenen Daten konnte gezeigt werden, dass neben dem Zeitverständnis vor allem die Fähigkeit der dreijährigen Kinder zur Perspektivübernahme einen signifikanten Beitrag zur Erklärung ihrer späteren Kompetenzen auf dem Gebiet des episodischen Gedächtnisses leistet. Weiterhin konnten mittels der zwei Messzeitpunkte sowohl die quantitativen als auch qualitativen Veränderungen innerhalb der unterschiedlichen Theory of Mind-Kompetenzen bzw. innerhalb des sich wandelnden Repräsentationsverständnisses abgebildet werden. Zudem konnte ebenfalls die bedeutende Rolle der Sprache als optimales Medium zum verbalen Austausch über die verschiedenen Perspektiven von sich und anderen sowie über vergangene, gegenwärtige oder zukünftige Erlebnisse konstatiert werden. Im Gegensatz zu den Befunden anderer Studien scheint hingegen den vorliegenden Befunden nach dem Einfluss der exekutiven Fähigkeiten auf die Theory of Mind-Kompetenzen der Kinder keine so grundlegende Bedeutung zuzukommen.
Driving can be dangerous. Humans become inattentive when performing a monotonous task like driving. Also the risk implied while multi-tasking, like using the cellular phone while driving, can break the concentration of the driver and increase the risk of accidents. Others factors like exhaustion, nervousness and excitement affect the performance of the driver and the response time. Consequently, car manufacturers have developed systems in the last decades which assist the driver under various circumstances. These systems are called driver assistance systems. Driver assistance systems are meant to support the task of driving, and the field of action varies from alerting the driver, with acoustical or optical warnings, to taking control of the car, such as keeping the vehicle in the traffic lane until the driver resumes control. For such a purpose, the vehicle is equipped with on-board sensors which allow the perception of the environment and/or the state of the vehicle. Cameras are sensors which extract useful information about the visual appearance of the environment. Additionally, a binocular system allows the extraction of 3D information. One of the main requirements for most camera-based driver assistance systems is the accurate knowledge of the motion of the vehicle. Some sources of information, like velocimeters and GPS, are of common use in vehicles today. Nevertheless, the resolution and accuracy usually achieved with these systems are not enough for many real-time applications. The computation of ego-motion from sequences of stereo images for the implementation of driving intelligent systems, like autonomous navigation or collision avoidance, constitutes the core of this thesis. This dissertation proposes a framework for the simultaneous computation of the 6 degrees of freedom of ego-motion (rotation and translation in 3D Euclidean space), the estimation of the scene structure and the detection and estimation of independently moving objects. The input is exclusively provided by a binocular system and the framework does not call for any data acquisition strategy, i.e. the stereo images are just processed as they are provided. Stereo allows one to establish correspondences between left and right images, estimating 3D points of the environment via triangulation. Likewise, feature tracking establishes correspondences between the images acquired at different time instances. When both are used together for a large number of points, the result is a set of clouds of 3D points with point-to-point correspondences between clouds. The apparent motion of the 3D points between consecutive frames is caused by a variety of reasons. The most dominant motion for most of the points in the clouds is caused by the ego-motion of the vehicle; as the vehicle moves and images are acquired, the relative position of the world points with respect to the vehicle changes. Motion is also caused by objects moving in the environment. They move independently of the vehicle motion, so the observed motion for these points is the sum of the ego-vehicle motion and the independent motion of the object. A third reason, and of paramount importance in vision applications, is caused by correspondence problems, i.e. the incorrect spatial or temporal assignment of the point-to-point correspondence. Furthermore, all the points in the clouds are actually noisy measurements of the real unknown 3D points of the environment. Solving ego-motion and scene structure from the clouds of points requires some previous analysis of the noise involved in the imaging process, and how it propagates as the data is processed. Therefore, this dissertation analyzes the noise properties of the 3D points obtained through stereo triangulation. This leads to the detection of a bias in the estimation of 3D position, which is corrected with a reformulation of the projection equation. Ego-motion is obtained by finding the rotation and translation between the two clouds of points. This problem is known as absolute orientation, and many solutions based on least squares have been proposed in the literature. This thesis reviews the available closed form solutions to the problem. The proposed framework is divided in three main blocks: 1) stereo and feature tracking computation, 2) ego-motion estimation and 3) estimation of 3D point position and 3D velocity. The first block solves the correspondence problem providing the clouds of points as output. No special implementation of this block is required in this thesis. The ego-motion block computes the motion of the cameras by finding the absolute orientation between the clouds of static points in the environment. Since the cloud of points might contain independently moving objects and outliers generated by false correspondences, the direct computation of the least squares might lead to an erroneous solution. The first contribution of this thesis is an effective rejection rule that detects outliers based on the distance between predicted and measured quantities, and reduces the effects of noisy measurement by assigning appropriate weights to the data. This method is called Smoothness Motion Constraint (SMC). The ego-motion of the camera between two frames is obtained finding the absolute orientation between consecutive clouds of weighted 3D points. The complete ego-motion since initialization is achieved concatenating the individual motion estimates. This leads to a super-linear propagation of the error, since noise is integrated. A second contribution of this dissertation is a predictor/corrector iterative method, which integrates the clouds of 3D points of multiple time instances for the computation of ego-motion. The presented method considerably reduces the accumulation of errors in the estimated ego-position of the camera. Another contribution of this dissertation is a method which recursively estimates the 3D world position of a point and its velocity; by fusing stereo, feature tracking and the estimated ego-motion in a Kalman Filter system. An improved estimation of point position is obtained this way, which is used in the subsequent system cycle resulting in an improved computation of ego-motion. The general contribution of this dissertation is a single framework for the real time computation of scene structure, independently moving objects and ego-motion for automotive applications.
Urothelkarzinome entstehen aus dem Epithel (Urothel) der unteren Harnwege (Nierenkelche und -becken, Harnleiter und -blase, sowie proximale Harnröhre). Die Harnblase ist der bevorzugte Ort der Urothelkarzinome. Krebserregende chemische Verbindungen (Karzinogene), die im Urin konzentriert vorliegen, sind Hauptverursacher der Urothelkarzinome. Größter einzelner Risikofaktor ist das Rauchen. Urothelkarzinome alarmieren durch Mikro- oder Makrohämaturie, und werden durch zytologische Bestimmung der Urinzellen (exfoliative Urinzytologie) und durch endoskopische Untersuchung der Harnblase (Zystoskopie) diagnostiziert. Es gibt kein pathognomisches Zeichen das auf ein Urothelkarzinom hinweisen würde. Da gutdifferenzierte Urothelkarzinomzellen kaum von den normalen Urothelzellen zu unterscheiden sind, ist die falsch-negative Rate bei der Diagnose dieser G 0-1 Tumoren mit 42% besonders hoch. Bei den endoskopisch schwer zu erkennenden in situ Karzinomen, die weitgehend entdifferenziert (anaplastisch) sind, liegt die Treffsicherheit bei 94%. Keiner der bis heute vorgeschlagenen Tumormarker hat die geforderte Spezifität, Sensitivität und prognostische Aussagekraft, um für die Diagnostik des Harnblasenkarzinoms von Wert zu sein. In der vorliegenden Arbeit wurde bei der Suche nach einem geeigneten Marker für den Nachweis eines Urothelkarzinoms eine Doppelstrategie verfolgt: 1. Die Expression einiger bekannter Gene wurde mit Reverser Transkription Polymerase Kettenreaktion (RT-PCR) an einer Reihe von Urothelkarzinomen unterschiedlicher Malignitätsgrade (G1 bis G4) und an normalen Urothelien untersucht. Uroplakine, die einzigen bislang bekannten urothelspezifischen Moleküle, bildeten dabei den Schwerpunkt. Ein Uroplakin-RT-PCR Bluttest wurde entwickelt, mit dem es möglich ist, disseminierte Urothelkarzinomzellen zu entdecken, noch bevor sie Metastasen gebildet haben. Die Nachweisempfindlichkeit des Tests liegt bei einer Zelle pro ml Blut. Von den untersuchten Urothelkarzinomprimärtumoren exprimierten alle gut bis mäßig differenzierten Tumoren (G1 und G2) Uroplakin (UP), bei den wenig differenzierten und anaplastischen Tumoren (G3 und G4) war etwa die Hälfte UP-positiv. 2. Die differentielle Genexpression derselben Urothelkarzinome und Urothelien wurde mittels Differential Display RT-PCR (ddRT-PCR) dargestellt, um auch unbekannte Genprodukte zu erfassen, die an der Krebsentstehung beteiligt sein und als spezifische Marker dienen könnten. Die gebräuchliche ddRT-PCR wurde durch eine Homologiedomänen-Konsenssequenz-RT-PCR ergänzt. Es konnten einige bekannte Gene identifiziert werden, darunter das DNA-bindende und transkriptionsregulierende HMG-1 (high mobility group) Protein und das mit Metastasierung assoziierte mts-1 Produkt. Einige Sequenzen zeigten keine Übereinstimmung mit bekannten Genen und sind damit potentiell neue Krebsgenkanditaten.
Bei der Expression einer Phospholipase A2 aus Soja in Aspergillus oryzae (Probe PL-1007), Trichoderma viride (Probe PL-1008) und Pichia pastoris (Probe PL-1035) wurde neben der erwarteten Phospholipaseaktivität auch eine deutliche Lysophospholipaseaktivität beobachtet. Eine Trennung dieser Aktivitäten war nur mittels einer Free-Flow-Elektrophorese kurzzeitig möglich, bevor sich in jeder Fraktion wieder das ursprüngliche Aktivitätsverhältnis zwischen Phospholipase und Lysophospholipase einstellte. Zur näheren Untersuchung und Charakterisierung dieser Enzymsysteme wurden für einen gaschromatischen Aktivitätstest hochspezifisch substituierte Substrate eingesetzt, die eine parallele Bestimmung der Phospholipase- und Lysophospholipaseaktivitäten ermöglichten. So konnte gezeigt werden, dass nicht in allen Organismen eine Phospholipase A2 exprimiert wird, sondern es in Pichia pastoris (Probe PL-1035) zur Expression einer Phospholipase A1 kommt. Im Falle der Probe PL-1007 konnte die beobachtete Lysophospholipaseaktivität durch Versuche mit veränderten Substratverhältnissen zwischen Lysophospholipase- und Phospholipasesubstrat einem separaten aktiven Zentrum zugeschrieben werden. Durch elektrophoretische Trennungsversuche konnte gezeigt werden, dass es sich nicht nur um separate aktive Zentren, sondern um verschiedene Enzyme handelt. Die Tatsache, dass sich das Aktivitätsverhältnis nach der Trennung selbständig wieder einstellt, lässt das Vorliegen von Faltungsisomeren vermuten. Bezüglich ihrer katalytischen Eigenschaften weisen alle drei Enzymsysteme eine große Ähnlichkeit auf. Sowohl die Phospholipase- wie auch die Lysophospholipaseaktivitäten sind erst ab einer Reaktionstemperatur von über 70°C nicht mehr nachweisbar. Das Aktivitätsmaximum wurde in allen drei Fallen zwischen 45°C und 55°C beobachtet. Auch die pH-Bereiche in denen eine maximale enzymatische Aktivität zu beobachten ist, liegen mit pH 3,6 (PL-1007) bis pH 4,3 (PL-1035) für die Phospholipaseaktivitäten und pH 4,3 (PL-1007 / PL-1008) und pH 4,6 (PL-1035) in ähnlichen Bereichen. Die Aktivität der untersuchten Enzymsysteme zeigt jedoch im beobachteten pH-Bereich von pH 3 bis pH 5 nur eine geringe pH-Abhängigkeit. Deutlichere Unterschiede konnten jedoch für die Substratspezifitäten nachgewiesen werden. Die Phospholipasen A2 zeigen tendenziell höhere Umsätze bei Substraten mit C 12:0 bis C 16:0 Fettsäureresten, während die Phospholipase A1 aus Probe PL-1035 maximale Umsätze bei C 18:0 Fettsäureresten aufweist. Bei allen Enzymproben jedoch bleiben die Umsatzraten der ein- bis mehrfach ungesättigten Fettsäurereste hinter denen der gesättigten zurück. Lediglich bei der Probe PL-1007 sind die Aktivitätsunterschiede zwischen gesättigten und ungesättigten Substraten nicht signifikant. Neben der Untersuchung der katalytischen Eigenschaften konnte im Rahmen dieser Arbeit die in der Literatur mehrfach aufgestellte These der Hemmung der Phospholipaseaktivität in Gegenwart von Uteroglobin bestätigt werden. Ein Hemmungsmechanismus aufgrund direkter Wechselwirkung der Enzyme konnte ausgeschlossen werden. Vielmehr konnte zweifelsfrei bewiesen werden, dass der Hemmungsmechanismus bei den hier eingesetzten Enzymsystemen auf einer Bindung des für die Phospholipasereaktion essentiellen Ca2+ durch das Uteroglobin zurückzuführen ist.
Das Buch nimmt die Beobachtung zum Ausgangspunkt, dass wahrnehmende Lebewesen immer auch sich bewegende Lebewesen sind. Der Zusammenhang zwischen den Vermögen der Wahrnehmung und der Selbstbewegung wird hier als ein konstitutiver gefasst, der insofern Auswirkungen für das Verständnis und die philosophische Analyse des jeweiligen Vermögens hat. Im Fokus steht das wechselseitige Verhältnis zwischen Wahrnehmung und Handeln beim Menschen und damit auch die Frage, in welcher Beziehung das begriffliche Denken zu den genannten Vermögen steht. Die Arbeit diskutiert Schriften von Wittgenstein, Anscombe, Merleau-Ponty, Dreyfus, McDowell, sowie neuere Beiträge aus der enaktivistischen und phänomenologischen Tradition.
Im ersten Kapitel wird der Zusammenhang zwischen Wahrnehmung und Handlung in der Erkenntnistheorie untersucht. Hier stehen enaktivistische Theorien, die auf den grundsätzlichen Handlungscharakter der Wahrnehmung verweisen, im Mittelpunkt. Anhand einer Kritik der Kamerametaphorik des menschlichen Blicks wird dafür argumentiert, dass die (visuelle) Wahrnehmung als aktiver Prozess verstanden werden muss. Das Sehen ist weder punktförmig noch bildhaft aufzufassen, vielmehr ist es eine stets prekäre Errungenschaft eines leiblichen Wesens im Austausch mit der es umgebenden Welt. Die Ergebnisse aus dem ersten Kapitel werden im zweiten Kapitel mit Ludwig Wittgensteins Überlegungen zum Aspektsehen in Kontakt gebracht. Wittgensteins Bemerkungen zum Sehen und Aspektsehen lassen sich als Anstoß zu einem pluralistischen Verständnis der Wahrnehmung verstehen. In Anbetracht der vielfältigen Diskussionen, für die Wittgensteins Bemerkungen über das Aspektsehen relevant sind, wird hier herausgearbeitet, inwieweit sie als eine Kritik an jeder Form des Gegebenseins in der Wahrnehmung verstanden werden können. Eine Diskussion des ebenso ungewöhnlichen wie wenig beachteten Beitrags Anscombes zur Theorie der Wahrnehmung, den sie hauptsächlich in »The Intentionality of Sensation« ausarbeitet, beschließt das zweite Kapitel.
Im dritten Kapitel geht es um den zweiten Teil der These, Wahrnehmung und Handeln seien wechselseitig voneinander abhängig. In diesem Kapitel geht es um Theorien, für die die Wahrnehmung nicht einfach Informationen über die Umwelt bereitstellt, sondern selbst Bestandteil des Handelns ist. Eine besondere Herausforderung besteht darin, die Rolle der Wahrnehmung sowohl für das geistesabwesende Tun als auch für das überlegte Handeln und auch für mentale Handlungen, wie etwa Entscheidungen, zu bestimmen. Besonders offensichtlich wird die Rolle der Wahrnehmung im Handeln immer dort, wo das Überlegen zurücktritt und das gekonnte Handeln auf die Wahrnehmung von Gelegenheiten angewiesen ist – also insbesondere dort, wo das Handeln Ausdruck spezialisierter Fähigkeiten ist.
Der Wahrnehmungsbegriff, der in der Arbeit im Mittelpunkt steht, ist gerade kein allgemeiner oder übergreifenden – und erst recht kein »zugrundliegender« Begriff der Wahrnehmung. Vielmehr soll Wahrnehmung plural verstanden werden: die Wahrnehmung im Alltag, die beobachtenden Wahrnehmung, die Wahrnehmung des Profis, die begriffliche Wahrnehmung. Diese Herangehensweise läuft zwangsläufig auch auf die Frage hinaus, inwiefern sich die menschliche Wahrnehmung und die Wahrnehmung der Tiere unterscheiden. Zwar gilt für Tiere wie für Menschen, dass sie wahrnehmen und sich bewegen – aber bestimmte Formen der Wahrnehmung sind klarerweise dem Menschen vorbehalten, etwa die ästhetische, die moralische und die begriffliche Wahrnehmung. Das vierte Kapitel diskutiert – ausgehend von der Frage nach der Begrifflichkeit der menschlichen Vermögen des Wahrnehmens und Handelns –, in welchem Verhältnis diese zu denen der Tiere stehen.
Ein auffälliger Unterschied zwischen den Vermögen des Menschen und denen der Tiere – so wird sich herausstellen – ist die Flexibilität und Pluralität der menschlichen Vermögen. Doch diese Pluralität ist kein natürliches Faktum, sondern Produkt bestimmter Tätigkeiten und Praktiken. Erst im tätigen Umgang mit der Welt, durch den Erwerb bestimmter Techniken und innerhalb bestimmter Praktiken verwirklicht sich die grundsätzliche Offenheit der menschlichen Vermögen. Diese Idee, dass unsere natürlichen Vermögen in Kontakt und Auseinandersetzung mit unserer Lebenswelt sich allererst entwickeln, ist Gegenstand des fünften Kapitels.
Die konstitutiven Beziehungen zwischen Wahrnehmung und Handeln in den Mittelpunkt dieser Untersuchung zu rücken, ist dabei Ausdruck eines bestimmten Philosophieverständnisses, nämlich eines, das das wahrnehmende, denkende und handelnde Lebewesen in den Fokus seiner Untersuchung stellt – nicht das einzelne Vermögen, sondern der ganze Organismus sind der point of interest.
In this thesis we study strongly correlated electron systems within the Density Functional Theory (DFT) in combination with the Dynamical Mean-Field Theory (DMFT).
First, we give an introduction into the theoretical methods and then apply them to study realistic materials. We present results on the hole-doped 122-family of the iron-based superconductors and the transition-metal oxide SrVO3. Our investigations show that a proper treatment of strong electronic correlations is necessary to describe the experimental observations.
In der vorliegenden Arbeit wurden zwei motivationale Erklärungsmodelle, Zielorientierungen und das kognitiv-motivationale Prozessmodell, im Rahmen des selbstregulierten Lernens integriert. Selbstregulationsprozesse sind nach Carver und Scheier (1981) zyklisch angelegt. Zu den Bestandteilen der Selbstregulation gehören nach Boekaerts (1999)Regulation der Informationsverarbeitung, Regulation des Lernprozesses und Regulation des Selbsts. Auf dieser Ebene sind die Zielorientierungen angesiedelt. In dieser Arbeit das 2 x 2 Modell von Elliot und McGregor (2001) herangezogen. Es berücksichtigt zwei Dimensionen, die Valenz (Annäherungs- und Vermeidungskomponente) und die Kompetenz (Vergleichsmaßstab intern und extern). Hieraus resultieren: 1) Lern-Annäherungs-Ziele (positive Valenz & interner Vergleich, 2) Lern-Vermeidungs-Ziele (negative Valenz & interner Vergleich), 3) Leistungs-Annäherungs-Ziele (positive Valenz & externer Vergleich) und 4) Leistungs-Vermeidungs-Ziele (negative Valenz & externer Vergleich). Diese vier Zielorientierungen sind der erste Teil des integrierten Modells, der zweite zentrale Teil ist das kognitiv-motivationale Prozessmodell (Vollmeyer & Rheinberg, 1999, 2006). Ausgangspunkt ist die aktuelle Motivation, die aus 1) der Erfolgswahrscheinlichkeit, 2) der Misserfolgsbefürchtung, 3) dem Interesse und 4) der Herausforderung als unabhängige Faktoren besteht. Diese aktuelle Motivation wirkt nicht direkt auf die Leistung, sondern durch kognitive (hier: Metakognition) und motivationale (hier: Flow-Erleben) Mediatoren. Es wurden drei Fragestellungen bearbeitet. Die erste Fragestellung betraf das Zusammenspiel der Zielorientierungen und der aktuellen Motivation. Eine Überprüfung dieses integrierten Motivationsmodell erfolgte mittels Pfadanalyse. Die zweite und dritte Fragestellung befasste sich spezifisch mit dem kognitiv-motivationalen Prozessmodell. Es wurden Subgruppen auf der Basis der aktuellen Motivation identifiziert und ihre Bedeutung für die Mediatoren und die Leistung untersucht. Die dritte Fragestellung fokussierte den Prozesscharakter des Modells. Hier erfolgten Analysen über den Arbeitsprozess hinweg. Die Fragebögen (Achievement Goal Questionnaire (Elliot & McGregor, 2001), Metakognitionsfragebogen (aufbauend auf LIST (Wild, 2000) und Metacognitive Awareness Inventory (Schraw & Dennison, 1994), Fragebogen zur aktuellen Motivation (Rheinberg, Vollmeyer & Burns, 2001), Flow-Kurz-Skala (Rheinberg, Vollmeyer & Engeser, 2003)) und die Problemlöseaufgaben (Sudokus) wurden in einer Pilotstudie getestet. An der Hauptstudie nahmen 202 Personen teil (73% weiblich). Das integrierte Motivationsmodell geht davon aus, dass eine positiver Effekt der Zielorientierungen als Personenvariable auf die aktuelle Motivation besteht. Die aktuelle Motivation als Startpunkt des situationalen Geschehens wiederum wirkt positiv auf die Mediatoren Flow-Erleben und Metakognition, hat aber keinen direkten Effekt auf die Leistung. Dieser wird nämlich über die Mediatoren vermittelt. Deswegen wird ein positiver Effekt des Flow-Erlebens und der Metakognition auf die Leistung erwartet. Das Zusammenwirken der beiden Mediatoren kann aus dem kognitiv-motivationalen Prozessmodell nicht abgeleitet werden. Ob ein Zusammenhang besteht oder nicht wird geprüft. Für das Vorwissen wird ein positiver Effekt auf die aktuelle Motivation und die Leistung erwartet. Die Pfadanalyse zur Überprüfung des integrierten Motivationsmodells zeigte, dass eine Integration nicht nur theoretisch sinnvoll ist, sondern auch empirisch gestützt wird. Die Bedeutung der Metakognition als kognitiver Mediator wurde gezeigt. Die zweite Fragestellung fokussierte auf die aktuelle Motivation. Auf der Basis dieser wurden mittels Clusteranalyse drei distinkte Gruppen identifiziert: hoch Motivierte, niedrig Motivierte und ängstlich Motivierte (vergleichbar zu Vollmeyer & Rheinberg, 2004). Diese Gruppen unterschieden sich hinsichtlich ihres Flow-Erlebens, ihrer Metakognition und ihrer Leistung. Die hoch Motivierten erlebten am meisten Flow, berichteten mehr Metakognition und zeigten bessere Leistung. Der Prozesscharakter des kognitiv-motivationalen Prozessmodells stand im Mittelpunkt der dritten Fragestellung. Diese Analyse über die drei Sudokus hinweg zeigte eine ähnliche Entwicklung des Flow-Erlebens bei den hoch und niedrig Motivierten. Vom ersten zum zweiten Sudoku stieg es an, um dann wieder abzufallen. Dies war bei der Metakognition nicht der Fall. Die hoch Motivierten berichteten einen stärkeren Rückgang der Metakognition beim dritten Sudoku als die niedrig Motivierten. Bei der Leistung zeigte sich für die hoch Motivierten ein Anstieg beim zweiten Sudoku und dann ein Rückgang beim dritten, wohingegen die Leistung der niedrig Motivierten kontinuierlich abfiel. Abschließend wurden die Schwierigkeiten und Grenzen der vorliegenden Arbeit diskutiert und Implikationen der Ergebnisse für die Theorieentwicklung und ihre Bedeutung für den Anwendungskontext aufgezeigt.
Quarks and gluons are the building blocks of all hadronic matter, like protons and neutrons. Their interaction is described by Quantum Chromodynamics (QCD), a theory under test by large scale experiments like the Large Hadron Collider (LHC) at CERN and in the future at the Facility for Antiproton and Ion Research (FAIR) at GSI. However, perturbative methods can only be applied to QCD for high energies. Studies from first principles are possible via a discretization onto an Euclidean space-time grid. This discretization of QCD is called Lattice QCD (LQCD) and is the only ab-initio option outside of the high-energy regime. LQCD is extremely compute and memory intensive. In particular, it is by definition always bandwidth limited. Thus—despite the complexity of LQCD applications—it led to the development of several specialized compute platforms and influenced the development of others. However, in recent years General-Purpose computation on Graphics Processing Units (GPGPU) came up as a new means for parallel computing. Contrary to machines traditionally used for LQCD, graphics processing units (GPUs) are a massmarket product. This promises advantages in both the pace at which higher-performing hardware becomes available and its price. CL2QCD is an OpenCL based implementation of LQCD using Wilson fermions that was developed within this thesis. It operates on GPUs by all major vendors as well as on central processing units (CPUs). On the AMD Radeon HD 7970 it provides the fastest double-precision D= kernel for a single GPU, achieving 120GFLOPS. D=—the most compute intensive kernel in LQCD simulations—is commonly used to compare LQCD platforms. This performance is enabled by an in-depth analysis of optimization techniques for bandwidth-limited codes on GPUs. Further, analysis of the communication between GPU and CPU, as well as between multiple GPUs, enables high-performance Krylov space solvers and linear scaling to multiple GPUs within a single system. LQCD calculations require a sampling of the phase space. The hybrid Monte Carlo (HMC) algorithm performs this. For this task, a single AMD Radeon HD 7970 GPU provides four times the performance of two AMD Opteron 6220 running an optimized reference code. The same advantage is achieved in terms of energy-efficiency. In terms of normalized total cost of acquisition (TCA), GPU-based clusters match conventional large-scale LQCD systems. Contrary to those, however, they can be scaled up from a single node. Examples of large GPU-based systems are LOEWE-CSC and SANAM. On both, CL2QCD has already been used in production for LQCD studies.