Universitätspublikationen
Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178)
Is part of the Bibliography
- no (178)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Interactional niche in the development of geometrical and spatial thinking in the familial context
(2016)
In the analysis of mathematics education in early childhood it is necessary to consider the familial context, which has a significant influence on development in early childhood. Many reputable international research studies emphasize that the more children experience mathematical situations in their families, the more different emerging forms of participation occur for the children that enable them to learn mathematics in the early years. In this sense mathematical activities in the familial context are cornerstones of children’s mathematical development, which is also affected by the ethnic, cultural, educational and linguistic features of their families. Germany has a population of approximately 82 million, about 7.2 million of whom are immigrants (Statisches Bundesamt 2009, pp.28-32). Children in immigrant families grow up with multiculturalism and multilingualism, therefore these children are categorized as a risk group in Germany. “Early Steps in Mathematics Learning – Family Study” (erStMaL-FaSt) is the one of the first familial studies in Germany to deal with the impact of familial socialization on mathematics learning. The study enables us to observe children from different ethnic groups with their family members in different mathematical play situations. The family study (erStMaL-FaSt) is empirically performed within the framework of the erStMaL (Early Steps in Mathematics Learning) project, which relates to the investigation of longitudinal mathematical cognitive development in preschool and early primary-school ages from a socio-constructivist perspective. This study uses two selected mathematical domains, Geometry and Measurement, and four play situations within these two mathematical domains.
My PhD study is situated in erStMaL-FaSt. Therefore, in the beginning of this first chapter, I briefly touch upon IDeA Centre and the erStMaL project and then elaborate on erStMaL-FaSt. As parts of my research concepts, I specify two themes of erStMaL-FaSt: family and play. Thereafter I elaborate upon my research interest. The aim of my study is the research and development of theoretical insights in the functioning of familial interactions for the formation of geometrical (spatial) thinking and learning of children of Turkish ethnic background. Therefore, still in Chapter 1, I present some background on the Turkish people who live in Germany and the spatial development of the children.
This study is designed as a longitudinal study and constructed from interactionist and socio-constructivist perspectives. From a socio-constructivist perspective the cognitive development of an individual is constitutively bound to the participation of this individual in a variety of social interactions. In this regard the presence of each family member provides the child with some “learning opportunities” that are embedded in the interactive process of negotiation of meaning about mathematical play. During the interaction of such various mathematical learning situations, there occur different emerging forms of participation and support. For the purpose of analysing the spatial development of a child in interaction processes in play situations with family members, various statuses of participation are constructed and theoretically described in terms of the concept of the “interactional niche in the development of mathematical thinking in the familial context” (NMT-Family) (Acar & Krummheuer, 2011), which is adapted to the special needs of familial interaction processes. The concept of the “interactional niche in the development of mathematical thinking” (NMT) consists of the “learning offerings” provided by a group or society, which are specific to their culture and are categorized as aspects of “allocation”, and of the situationally emerging performance occurring in the process of meaning negotiation, both of which are subsumed under the aspect of the “situation”, and of the individual contribution of the particular child, which constitutes the aspect of “child’s contribution” (Krummheuer 2011a, 2011b, 2012, 2014; Krummheuer & Schütte 2014). Thereby NMT-Family is constructed as a subconcept of NMT, which offers the advantage of closer analyses and comparisons between familial mathematical learning occasions in early childhood and primary school ages.
Within the scope of NMT-Family, a “mathematics learning support system” (MLSS) is an interactional system which may emerge between the child and the family members in the course of the interaction process of concrete situations in play (Krummheuer & Acar Bayraktar, 2011). All these topics are addressed in Chapter 2 as theoretical approaches and in Chapter 3 as the research method of this study. In Chapter 4 the data collection and analysis is clarified in respect of these approaches...
In Belize, which is well known for the Belize Barrier Reef and its offshore atolls, coastal lagoons are frequent morphological features along the coast. They represent transitional environments between siliciclastic and carbonate settings. In order to shed light into the Holocene evolution of coastal lagoon environments, five localities along the central coast of Belize were selected as coring sites. These include four coastal lagoons and one marsh area, namely Mantatee Lagoon, Mullins River Beach, Colson Point Lagoon, Commerce Bight Lagoon and Sapodilla Lagoon. A total of 26 sediment cores with core lengths ranging from 109 cm to 500 cm, were drilled using a Lanesky-vibracorer. Overall, 73 m of Holocene sediments and Pleistocene soil were recovered. Together with 58 radiocarbon dates the sediments reveal details on the sediment architecture and depositional features of the localities.
Marine inundation of the mainland and coastal lagoon formation started around 6 kyrs cal BP.
As a response to sea-level rise during the Holocene transgression, facies retrograded towards the coast, as seen in marginal marine overlying brackish mollusk faunas. Evidence for late Holocene progradation of facies due to sea-level stagnation is largely lacking. The occurrence of landward thinning sand beds, hiatuses and marine fauna in lagoonal successions are indications of event (overwash) sedimentation. Sediments recovered are largely of Holocene age (<7980 cal BP), overlying Pleistocene sections. Analyses of sediment composition and texture, radiocarbon dating and mollusk shell identification were used to describe and correlate sedimentary facies.
XRD analyses have identified quartz as the dominant mineral, with the Maya Mountains as main source of coastal lagoon sediments. The most common sedimentary facies include peat and peaty sediment, mud, sand, and poorly sorted sediments. Pleistocene soil forms the basement of Holocene sediments. Holocene mud represents lagoon background permanent sedimentation.
Peats and peat-rich sequences were deposited in mangrove swamp environments, whereas sandy facies mainly occur in the shoreface, beach, barriers, bars, barrier spits and overwash deposits. Facies successions could be identified for each locality, but it has proven difficult to correlate the stratigraphic sequences, especially among localities. These differences among the five locations studied suggest that apart from regional influence such as sea-level rise, local environmental factors such as small-scale variation in geomorphology and resulting facies heterogeneity, connectivity of the lagoon with the sea, antecedent topography and river discharge, were responsible for coastal sedimentation and lagoon development in the Holocene of Belize.
Faunal composition and distribution patterns of mollusk assemblages from 20 shell concentrations in cores collected in coastal lagoons, a mangrove-fringed tidal inlet and the marginal marine area (shallow subtidal) show considerable variation due to environmental heterogeneity and the interplay of several environmental factors in the course of the mid-late Holocene (ca. 6000 cal BP to modern). The investigated fauna ≥2 mm comprises 2246 bivalve, gastropod and 11 scaphopod specimens. Fifty-three mollusk species, belonging to 42 families, were identified. The bivalve Anomalocardia cuneimeris and cerithid gastropods are the dominant species and account for 78% of the total fauna. Diversity indices are low in concentrations from lagoons and relatively high in the marginal marine and tidal inlet areas.
Based on cluster analysis and nonmetric multidimensional scaling (NMDS), seven lagoonal assemblages and three marginal marine/tidal inlet assemblages were defined. A separation between lagoonal and marginal marine/tidal inlet assemblages seen in ordination indicates a lagoon-onshore gradient. The statistical separation among lagoonal assemblages demonstrates environmental changes during the Holocene evolution of the coastal lagoons, which is probably related to the formation of barriers and spits. The controlling factors of species distribution patterns are difficult to figure out, probably due to the heterogeneity of the barrier-lagoon systems and the interaction of paleoecological and paleoenvironmental factors. In addition to the taxonomic analysis, a taphonomic analysis of 1827 valves of A. cuneimeris from coastal lagoons was carried out. There is no relationship between depth and age of shells and their taphonomic condition. Size-frequency distributions and right-left valve ratios of A. cuneimeris suggest that valves were not transported over long distances but were deposited parautochthonously in their original habitat. Shells from tidal inlet and marginal marine environments were also predominantly deposited in their original habitats.
Since the Belize coast was repeatedly affected by hurricanes and the paleohurricane record for this region is poor, the sediment cores have been examined in order to identify storm deposits.
The paleohurricane record presented in this study spans the past 8000 years and exhibits three periods with increased evidences of hurricane strikes occurring at 6000-4900 cal yr BP, 4200-3600 cal yr BP and 2200-1500 cal yr BP. Two earlier events around 7100 and 7900 cal yr BP and more recent events around 180 cal yr BP and during modern times have been detected. Sand layers, redeposited corals and lagoon shell concentrations have been used as proxies for storm deposition. Additionally, hiatuses and reversed ages may indicate storm influence. While sand layers and corals represent overwash deposits, the lagoon shell concentrations, which mainly comprise the bivalve Anomalocardia cuneimeris and cerithid gastropods, have been deposited due to changes in lagoon salinity during and after storm landfalls. Comparison with other studies reveals similarities with one record from Belize, but hardly any matches with other published records. The potential for paleotempestology reconstructions of the barrier-lagoon complexes along the central Belize coast differs depending on geomorphology, and deposition of washovers in the lagoon basins is limited, probably due to the interplay of biological, geological and geomorphological processes.
Geoelektrische Methoden sind weit verbreitet und werden häufig zur Erkundung des oberflächennahen Untergrundes eingesetzt. Angewendet werden standardmäßig meist nur linienhafte Anordnungen der Sender- und Empfängerelektroden, die nur wenige Zehner Meter lang sind. Hierdurch haben diese Methoden nur geringe Eindringtiefen. Um größere Eindringtiefen und 3-dimensionale Informationen über den Untergrund zu erhalten, sind in der vorgestellten Studie die Empfänger- und Senderdipole in mehr oder weniger regelmäßigen Abständen über das Untersuchungsgebiet verteilt worden. Mit jeder Empfängerstation sind kontinuierlich die elektrischen Spannungen in bis zu drei Richtungen aufgezeichnet worden. Für die Einspeisungen wurde ein Rechtecksignal verwendet, das sich gut von den Störfrequenzen und den natürlichen Spannungen abhebt. Die Richtungen der Einspeisedipole sind entsprechend den örtlichen Gegebenheiten, jedoch möglichst parallel zu den Messrichtungen, gewählt worden. Zur Auswertung der erhobenen Messdaten wurde ein Programmpaket entwickelt, das eine weitestgehend automatisierte Auswertung der Daten erlaubt. Die Bestimmung der scheinbaren spezifischen Widerstände und ihrer Messfehler wurde an den fouriertransformierten Datenzeitreihen durchgeführt. Hierdurch konnten Störeinflüsse minimiert werden und es wurde möglich selbst stark verrauschte Datensätze auszuwerten. Um die erhobenen Daten interpretieren zu können sind die berechneten scheinbaren spezifischen Widerstände als Grundlage für Inversionen und Modellstudien verwendet worden. Die oben beschriebene Methode wurde im Rahmen der vorliegenden Arbeit in zwei unterschiedlichen Messgebieten angewandt.
Messgebiet im Hohen Vogelsberg
Im Juli 2007 wurde damit begonnen, die Forschungsbohrung Sichenhausen-Eschwald im Hohen Vogelsberg abzuteufen. Ziel war es, Informationen über den strukturellen Aufbau des größten geschlossenen Vulkankomplexes Mitteleuropas zu gewinnen. Die Gesteinsansprache der Tiefbohrung lieferte bereits relativ früh Hinweise darauf, dass ein großer magmatischer Körper aufgeschlossen wurde.Aufgrund der begrenzten räumlichen Aussagekraft der Bohrung und fehlender Geländebefunde war es nicht möglich, den Mechanismus der Platznahme und die Größe des Körpers näher zu beschreiben. Die Kampagne hatte das Ziel diese Lücke zu schließen und ein 3-dimensionales Modell des Untergrundes zu erstellen.In dem annähernd quadratischen Untersuchungsgebiet, das eine Fläche von ca. 25 $km²$ aufweist, wurden 20 Datenlogger zur Aufzeichnung der elektrischen Spannungen aufgebaut. Die Empfängerdipole waren zwischen 20 m und 30 m lang. Insgesamt wurden 36 Stromeinspeisungen mit Stromstärken zwischen 28 A und 40 A an 16 unterschiedlichen Positionen für jeweils 2 bis 3 verschiedene Dipolrichtungen vorgenommen. Die Einspeisedipole waren zwischen 100 m und 300 m lang. Insgesamt konnten 1.439 scheinbare spezifische Widerstände berechnet werden.Die Ergebnisse der Modellierungen und der Inversion der Daten zeigen, dass mit der Forschungsbohrung ein domartiger Körper angebohrt wurde. Anhand der Ergebnisse kann die räumliche Ausdehnung des Körpers eingegrenzt und ein vorher noch nicht kartierter Gang nachgewiesen werden.
Messgebiet im Bereich der Kinzigtalsperre
Das etwa Ost-West verlaufende Kinzigtal bildet die naturräumliche und geologische Grenze zwischen dem vulkanischen Vogelsberg im Norden und dem, in diesem Bereich aus Sedimentgesteinen aufgebauten, Spessart im Süden.Die zwischen Steinau a. d. Str. und Bad Soden-Salmünster befindliche Kinzigtalsperre dient dem Hochwasserschutz und der Regulierung des Pegels der Kinzig bei Dürreperioden. Der aufgestaute See ist relativ flach und weist im Normalstau maximale Tiefen von ca. 6~m auf. Der Stausee ist jedoch über weite Teile etwa 4~m tief. In dieser Kampagne betrug der Abstand zwischen den einzelnen Empfängerstationen etwa 100 m bis 300 m. Es wurde aufgrund der beengten Platzverhältnisse eine Dipollänge von ca. 48 m für die Einspeise- und die Empfängerdipole im Messgebiet gewählt. Insgesamt wurden 14 Empfängerstationen im Messgebiet aufgebaut, von denen sich Neun auf dem Seegrund befanden. Das Messraster orientierte sich am vermuteten Verlauf der Kinzigtalstörung. An 8 Positionen sind in 21 Richtungen elektrische Ströme mit Stärken zwischen 2,2 A und 40 A in den Untergrund eingespeist worden. Es konnten 536 scheinbare spezifische Widerstände berechnet werden. Ziel war es, den Verlauf der Störung näher zu bestimmen und die Tiefe der im Untergrund vorhandenen salinären Grundwässer zu bestimmen. Die Bestimmung des Verlaufs der Kinzigtalstörung sowie die Tiefenbestimmung der salinären Grundwässer war mit den erhobenen Daten jedoch nicht möglich.
The development of the atrioventricular (AV) canal and the cardiac valves is tightly linked and a critically regulated process. Anomalies in components of the involved pathways can lead to congenital valve malformations, a leading cause of morbidity and mortality in neonates. Myocardial Bmp as well as endocardial Notch and Wnt signaling have been identified as critical factors for the induction of EMT during the formation of the endocardial cushions and cardiac valves. Of these, canonical Wnt signaling positively regulates endocardial proliferation and EMT but negatively regulates endocardial differentiation. Further, elevated Wnt signaling leads to the ectopic expression of myocardial Bmp ligands suggesting a high level of integration of the involved pathways and crosstalk amongst the different cardiac tissues.
Here we have identified a novel role for Id4 as a mediator between Bmp and Wnt signaling. Id4 belongs to the Id family of proteins and is known to be involved in bone and nervous system development. We found that in zebrafish, id4 is expressed in the endocardium of the AV canal at embryonic stages and throughout the atrial chamber in addition to AV canal, in adults. Using transcription activator-like effector nucleases (TALENs) we established an id4 mutant allele. Our analysis shows that id4 mutant larvae are susceptible to retrograde blood flow, and show aberrant expression of developmental valvular markers. These include expanded expression domains of markers like bmp4, cspg2a and Alcam. In contrast, valve maturation as assessed by the expression of spp1 is considerably reduced in id4 mutants. Using conditional transgenic systems, along with elegant in vivo imaging of transgenic reporter lines, we further found that id4 is a transcriptional target of Bmp signaling, and it is capable of dose dependently restricting Wnt signaling in the endocardium of the Atrioventricular Canal.
Taken together, our data identifies Id4 as a novel player in Atrioventricular Canal and valve development. We show that Id4 function is important in valve development acting downstream of Bmp signaling by restricting endocardial Wnt to allow valve maturation
Nearly 170 million people are chronically infected with HCV and thus at risk of developing liver cirrhosis and hepatocellular carcinoma. Although new and effective oral antiviral drugs are available, there is still the need for a preventive vaccine. In addition, in light of the high number of patients who are chronically infected with HCV the development of a therapeutic vaccine will present a support or even an alternative to the expensive medications.
To induce HCV-specific immune responses in a vaccine model, the HBV capsid is used as a carrier to deliver HCV antigens. Due to its icosahedral structure, the HBV capsid is highly immunogenic and helps to elicit a strong B cell response against the delivered antigens. In addition, the translocation motif (TLM) from the HBV surface protein is fused to the core protein. The TLM conveys membrane-permeability to the carrier capsid, enabling antigen transfer into the cytoplasm, and thus allows immunoproteasomal processing and MHC class I-mediated presentation of the antigen. To load the capsid with foreign antigens, a strep-Tag/streptavidin system is utilized. Recombinant capsids and antigens were purified from the E. coli production system. Detailed characterization of the carrier capsid demonstrated the proper assembly, adequate thermal stability and the successful loading of the foreign antigens onto the capsid surface.
As a further step, seven different HCV-derived proteins were produced and purified for the coupling on the surface of TLM-core particles. The characterization of their immunogenicity using this system is being performed.
Using ovalbumin as a model antigen, which is coupled to the carrier capsids via strep-Tag/streptavidin binding, shows that this system is suitable to efficiently deliver antigens into the cytoplasm of antigen-presenting cells (APCs), leading to the activation of APCs. This activation was assessed by measuring the secretion of IL-6 and TNF-α, in addition to the upregulation of activation markers (CD40, CD80, CD69, and MHC class I). Upon activation, the APCs were able to activate ova-specific CD8+ T cells measured by secreted IFN-γ, which was up to 20-folds more than IFN-γ secreted upon incubation with free ovalbumin. These data indicate that the TLM-capsid is suitable to serve as a carrier to deliver foreign antigens into the cytoplasm of APCs leading to MHC class I-mediated presentation and induction of an antigen-specific CTLs response.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.
Mitochondrial membrane dynamics is increasingly implicated in various human diseases. Numerous studies show that the protein OPA1 plays a central role in determining mitochondrial ultrastructure and apoptotic remodeling of the inner mitochondrial membrane during Cytochrome c release and apoptosis. Crista junctions are crucial for the regulation of apoptotic Cytochrome c release. Previous publications suggest that OPA1 is required to maintain a normal structure of the inner mitochondrial membrane. The protein MIC60 (Mitofilin) appears to be an essential physical constituent of crista junctions and is also crucial for the general determination of mitochondrial ultrastructure. Furthermore, recent studies suggest that MIC60 is also implicated in Cytochrome c release during apoptosis.
In this regard, the question whether OPA1 is essential for crista junction formation was investigated. In addition to that, the interplay between OPA1 and MIC60 and its physiological role were analyzed. Electron microscopy of OPA1+/- and OPA1+/+ mice, as well as of OPA1-/- and OPA1+/+ MEFs clearly showed that OPA1 plays a role but is not essential for crista junction formation. In contrast to that, the results indicate that OPA1 is crucial to maintain a normal structure of the inner mitochondrial membrane. Immunogold experiments fit well to these observations as OPA1 was found equally distributed throughout the cristae membrane with only a minor part located at crista junctions. MIC60 localization studies showed a clear enrichment at crista junctions. Interaction studies revealed that endogenous OPA1 and MIC60 physically interact with each other. Analysis of protein levels upon OPA1 or MIC60 depletion indicate that both proteins play a dual role in cristae- and crista junction formation in which MIC60 is a physical constituent of crista junctions essential for their formation while OPA1 primarily has a regulatory impact on MIC60 function. Finally, apoptosis assays and cell viability measurements showed that knockout of OPA1 in MEFs leads to increased cellular resistance suggesting that the interplay of these proteins is important for the regulation of crista junction remodeling during apoptosis.
Besides its role in determining mitochondrial ultrastructure, OPA1 mediates inner membrane fusion of mitochondria thereby contributing to mitochondrial quality control. Additionally, proteolytic processing is crucial for the ability of OPA1 to distinguish between functional and dysfunctional mitochondria. Functional mitochondria are fused while dysfunctional mitochondria are not, a process termed selective mitochondrial fusion. Dysfunctional mitochondria were shown to be degraded by mitophagy in a fission-dependent manner. Numerous studies suggest that OPA1 and mitophagy are directly linked. However, this idea is still under debate. Mitophagy is also crucial for mitochondrial quality control, which directly impacts mitochondrial integrity. Furthermore, mitochondrial quality control has been linked to neurodegeneration as demonstrated by the observation that mutations in OPA1 cause the disorder ADOA-1.
In order to analyze a potential link between OPA1 and mitophagy, mitochondrial colocalization with LC3 was analyzed microscopically in primary adult skin fibroblasts isolated from OPA1+/- and OPA1+/+ mice in an age-dependent manner. Fibroblasts from young OPA1+/- mice showed increased colocalization of mitochondria with autophagosomes compared to fibroblasts from young wild type mice suggesting that OPA1 exerts an inhibitory role in mitophagy. This effect was even more pronounced in old mice, which also displayed higher mitophagy levels in general than young mice, consistent with the finding that old mice had higher Parkin levels than young mice. Mitochondrial fragmentation was elevated in fibroblasts from young and old OPA1+/- mice compared to control fibroblasts. However, extensive mitochondrial fusion, which occurred in fibroblasts from old wild type mice, was prevented in old OPA1+/- mice. Furthermore, old wild type mice had decreased numbers of crista junctions compared to young wild type mice, an effect that was not observed in OPA1+/- mice. Despite the observed age-dependent phenotypes in mitochondrial quality control and mitochondrial integrity, deletion of one allele of OPA1 had no influence on the life span in vivo. Analysis of the OPA1-dependent proteome of aging mice, which was performed in collaboration with Ansgar Poetsch and Carina Ramallo-Guevara from Bochum, showed that OPA1-dependent aging is accompanied by a reduction of proteins involved in autophagy. In contrast to that, a switch from glucose to fatty acid metabolism and alterations in apoptotic proteins were observed in both OPA1+/- and OPA1+/+ mice in an age-dependent manner indicating that the changes in proteins implicated in autophagy could be a compensatory response to the diminished inhibitory effect of OPA1 on mitophagy. On the other hand, increased mitochondrial degradation by mitophagy could be a cellular response to itself compensating for the loss of OPA1 mediated fusion thereby contributing to the observation that OPA1+/- and OPA1+/+ mice had no differences in life span. Furthermore, analysis of the OPA1-dependent proteome of aging mice revealed that OPA1, besides its role in mitochondrial fusion, could interact with the fission machinery: MFF and Neuronal pentraxin 1, two proteins involved in mitochondrial fission, were up-regulated in 12-month-old OPA1+/- mice suggesting that a reduced fission activity could contribute to mitochondrial hyperfusion in aged wild- type mice. Nonetheless, the exact nature of the possible interplays between OPA1 and these candidates remains to be investigated.
Panama, a small country between the major continents of North and South America, is one of the lesser studied regions in Central America, but is recognized for its mega-biodiversity. This is particularly true for Eastern Panama, which I am considering as the easternmost portion of the country, covering the area from the Chepo, which is also the beginning of the San Blas mountain range, towards east, up to the Darien Mountain range on the border with its neighboring country Colombia. In the lowland region I visited two physiographic areas: the Isthmian-Atlantic Moist Forests (IAMF) and the Chocó-Darién Moist Forests (CDMF). In the IAMF I worked at the localities of Río Mono, Wacuco, La Moneda, Arretí, Metetí, Filo del Tallo, and Laguna de Matusagaratí. In the CDMF I visited the localities of Cruce de Mono, Cana, Garachiné, Sambú, and Pavarandó. And I have worked in the highlands of Darién (DM), Majé (MM), Jingurudó-Sapo (JSM), Pirre (PM) and San Blas (SSM) in the highlands.
Before my research, 138 reptile and 104 amphibian species had been reported for EP. From 2008 to 2013, I collected specimens to evaluate the diversity of amphibians and reptiles for this region. I applied an integrative approach to evaluate the taxonomy, diversity, biogeography, and conservation of the herpetofauna of EP. I included analyses of morphometrics, molecular genetics (e.g. barcoding), biogeography, bioacoustics (in anurans), hemipenial morphology (in squamates), and ecology. This is the first regional evaluation of the biodiversity in EP applying integrative taxonomy. Aside from morphological and bioacoustic data, my work is based on the barcoding of 608 specimens, from which I obtained 16S mtDNA for 486 specimens and COI mtDNA for 455. In total I have got sequences for 69.2 %of the amphibian and 48.6 % of the reptile species present in EP. For the morphological analyses, I compared 1597 specimens, including my samples complemented by specimens obtained from various museums. The bioacoustic data were obtained from the analysis of 1504 calls of 27 species of frogs. Based on specimens collected in EP and according to external morphology, I could identify 65 species of amphibians and 72 reptiles, but after applying an integrative approach these numbers increased to 79 amphibians and 88 reptiles described species within my collected specimens. Additionally, I uncovered 33 taxonomic units that could not be assigned to any described species until now, 22 of them represent confirmed candidate species (CCS), and 11 were classified as Unconfirmed candidate species (UCS). Thus, increasing the known species of amphibian by 19.4 % and of reptiles by 4.8 %. Currently, there are 145 reptiles and 129 amphibians known to occur in EP. Based on my results, I have initiated several projects to solve taxonomic uncertanties, including the species of the genera Bolitoglossa, Diasporus, Dactyloa, Ecnomiohyla, Lepidoblepharis, and the taxonomic status of the species Pristimantis caryophyllaceus and Norops tropidogaster.
Out of the 22 CCS I found, I described nine species new to science with type locality in EP, six amphibians and four reptiles. Among these is a new species of Bolitoglossa described from Cerro Chucantí, Cordillera de Majé, Provincia de Darién, Panama. Additionally, I include comments on the other species of congeneric salamanders known to occur in the region. Among the tink frogs, only Diasporus quidditus was known to occur in EP. During my field work I collected six additional species of this genus, four of which are new to science, plus two species new for this region.
I also described one new species of Dactyloa (giant anole lizards) related to the former D. chocorum. I synonymized D. chocorum with D. purpurescens, and included information about the other species of the group from EP. The new species of Dactyloa resembles D. ibanezi, D. limon, and D. purpurescens in external morphology but differs from these species in dewlap coloration, dorsal color pattern, morphometrics, and scalation. I discovered one species of the genus Ecnomiohyla, which exhibits significant genetic distances (16S mtDNA gene) and morphological differences to all known Ecnomiohyla species. Along with the description of the new Ecnomiohyla species, I provide detailed comparisons of morphological and molecular characters of almost all members of the genus in Lower Central America, as well as an identification key for the entire genus. Two new species of the genus Lepidoblepharis from EP were described. In the corresponding work, I include an analysis of Lepidoblepharis spp. in the region, including phylogeography and taxonomy. One of the new species, Lepidoblepharis emberawoundule, can be differentiated from most species in the genus by its small size and its low number of lamellae under the fourth toe and finger. The other species described from EP, Lepidoblepharis rufigularis, can be differentiated from all species in the genus by its small size and the reddish throat in males.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Since 2009 has the central Nigerian Nok Culture – until then primarily known for its highly artistic terracotta figurines and early evidence of iron working in the first millennium BCE – been the focus of a research project by the Goethe University Frankfurt/Main, Germany. The analysis of Nok sculptures has so far been almost entirely restricted to their stylistic features which show such great similarities that one hypothesis of the Frankfurt project has been the possible central production of these artfully crafted figurines.
This volume, written within the scope of a dissertation project completed in 2015, challenges this hypothesis by using scientific materials analysis. Combining the results of the mineralogical and geochemical analyses as well as geographic and geological observations, an alternative model for the organisation and procedure of the manufacture of the famous Nok terracottas is suggested.
They were – as the domestic pottery that is used for comparison and differentiation in this study – manufactured with locally available raw materials (clay and temper) but in different manufacturing sequences with regard to temper and clay composition. The terracottas’ clay was obviously reserved for their production only, demonstrating – aside from stylistic similarities – the value these figurines had during the Nok Culture.
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
Trotz einer fast 30-jährigen Forschungs- und Umsetzungshistorie stellen Projekte zum Aufbau integrierter Datenhaushalte (Data Warehouses) für Unternehmen immer noch eine große Herausforderung dar. Gerade in Data Warehouse-Projekten bei Finanzdienstleistern führt eine hohe semantische Komplexität häufig zu Projektverzögerungen oder zum Scheitern der Vorhaben. Dies zeigt die Arbeit anhand von explorativen Fallstudien auf und fragt nach den Gründen für diesen typischen Verlauf. Eine mögliche Ursache liegt in einer unzureichenden Kommunikation zwischen den Projektbeteiligten, was zu Missverständnissen in der Konzeption und somit zu Fehlimplementierungen führt, die – gerade wenn sie spät erkannt werden – deutliche Verzögerungen und Budgetüberschreitungen zur Folge haben. Ausgehend von diesen beobachteten Praxisproblemen sucht die vorliegende Arbeit auf der Grundlage des Design-Science-Research nach Lösungsansätzen: unter Übertragung der Erkenntnisse der Kommunikationstheorie wurden drei Artefakte entwickelt, sukzessive verbessert und validiert. Die Paper zeigen auf, dass sich durch den Einsatz formalisierter Templates, eines verbesserten Vorgehensmodells in Verbindung mit einem korrespondieren Softwaretool das Kommunikationsverhalten in den Projekten verbessern lässt und somit eine höhere Projekt-Performance erreicht wird. Hierzu wurden insgesamt sechs Projekte zum Aufbau von Data Warehouses im Finanzdienstleistungsumfeld in Fallstudien analysiert und zudem Experten-Interviews mit den Projektbeteiligten durchgeführt, die im Ergebnis die positive Wirkung der Artefakte unterstützen.
Entwicklung neuer Multikomponentenreaktionen zur Synthese von Amin- und α-Aminosäurederivaten
(2016)
Die Entwicklung neuer Synthesemethoden ist von enormer Bedeutung hinsichtlich der Darstellung von neuen Verbindungen mit speziellen, anwendungsorientierten Eigenschaften und in Bezug auf die Suche nach ökologisch verträglicheren und effizienteren Herstellungsmethoden. Multikomponentenreaktionen (MCRs) bieten hierbei eine gute Ansatzmöglichkeit. Gegenüber den klassischen, linear verlaufenden 2-Stufen-Reaktionen weisen MCRs eine hohe Atom-Ökonomie und effiziente Bindungsbildung auf, können zur Minimierung von Zeit-, Energie-, Material- und Kostenaufwand sowie zur geringeren Generierung von Abfallmengen beitragen und ermöglichen einen schnellen Aufbau diverser Molekülstrukturen. Vor diesem Hintergrund gelang im Rahmen der vorliegenden Arbeit die Entwicklung mehrerer 3-Komponentenreaktionen basierend auf der nukleophilen Addition von Arylboronsäuren an in situ gebildete N-Acyl- bzw. N-Sulfonylimine, womit die Synthese von diversen alpha-substituierten Amiden, chiralen, alpha-substituierten Sulfonamiden, chiralen alpha-Arylglycinen sowie von Arylmethylsulfonamiden erfolgte. Der Schlüssel zu einer erfolgreichen Umsetzung hinsichtlich der Methode mit Amiden war die Verwendung eines dualen Katalysatorsystems aus Lewis-Säure und Pd(II) sowie die Anwesenheit von Wasser. Die enantioselektiven Varianten konnten mittels Sulfonamide anstelle der Amide sowie unter Einsatz von Pd(II) und einem chiralen Oxazolin-Liganden erreicht werden. Die neuen Methoden sind einfach in der Durchführung, weisen einen breiten Substrat-bereich auf und im Falle der asymmetrischen Varianten hohe Enantioselektivitäten.
Allerdings besitzt die Reaktionsführung über Organoboronsäuren zwei entscheidende Nachteile: Zum einen bedarf es der Verwendung vorfunktionalisierter Boronsäuren und zum anderen werden stöchiometrische Mengen borhaltiger Abfälle erzeugt. Daher wurden im Rahmen dieser Arbeit auch Prozesse untersucht, bei denen hinsichtlich der Atom-Ökonomie keine unnötig vorfunktionalisierten Startmaterialien eingesetzt werden und bei denen keine oder nur ökologisch vollkommen unbedenkliche Nebenprodukte entstehen. Ein erster Ansatz in diese Richtung gelang dabei mit der Entwicklung einer neuen 3-Komponentenreaktion basierend auf einer Brønsted-Säurekatalysierten, benzylischen C–H-Bindungsfunktionalisierung von 2-Alkylazaarenen.
Historisch betrachtet wurde Krebspatienten durch das behandelnde Personal von physischer Belastungen oftmals abgeraten (Steins Bisschop et al., 2012). Mit der zunehmenden Zahl an Publikationen im Bereich onkologischer Rehabilitation wird deutlich, dass Krebspatienten oftmals eine stark reduzierte kardiorespiratorische Leistungsfähigkeit aufweisen, was wiederum Implikationen für akute wie auch längerfristige krebs-assoziierte Effekte und Outcomes haben kann (Jones et al., 2008). Somit steht dem bisherigen Verhaltens-Dogma der Ruhe und Schonung bei Krebspatienten eine Vielzahl an Evidenz der Effektivität und Notwendigkeit von regelmäßiger körperlicher Bewegung gegenüber (Jones et al., 2008; Klika et al., 2009; Steins Bisschop et al., 2012). Diese Arbeiten bieten fundierte Informationen bezüglich der zu Grunde liegenden Limitationen der Belastungstoleranz. Darauf aufbauend wird dieses Wissen genutzt, um effektive Trainings- und Rehabilitationsprogramme zu entwerfen sowie klinische Resultate zu verbessern (Jones et al., 2009).
Strukturierte und individualisierte Sport- und Bewegungstherapie gilt dabei als ein vielversprechender Ansatz, die nachlassende Fähigkeit der selbständigen Alltagsbewältigung, die krebsassoziierte Müdigkeitssymptomatik (fatigue), aber auch die allgemeine kardiorespiratorische Fitness (KRF) zu verbessern (Schmitz et al., 2010). Für onkologische Patienten von ebenso großer Bedeutung ist die Tatsache, dass durch regelmäßige körperliche Aktivität Begleiterscheinungen der eingesetzten Behandlungsmethoden (Hayes et al., 2009), das psychische Wohlbefinden als auch die Gesamtmortalität positiv beeinflusst werden können (Mishra et al., 2012b; Mishra et al., 2012a). Zusätzlich verspricht regelmäßige körperliche Bewegung, den Funktionsverlust in den drei wichtigsten physiologischen Bereichen (Muskulatur, Herz-Kreislauf-System und kardiopulmonales System) zu verringern oder sogar aufzuhalten (Hayes et al., 2009). Demzufolge nimmt die sporttherapeutische Sekundär- und Tertiärprävention bei Krebserkrankungen eine wichtige Rolle ein, und die Frage nach einer effektiven und zielgerichteten Belastungs- und Trainingssteuerung auf Basis valider und reliabler Messgrößen der körperlichen Leistungsfähigkeit gewinnt zunehmend an Bedeutung (Ulrich et al., 2013; Kirkham et al., 2013).
Aktuelle Empfehlungen zu körperlicher Aktivität bei onkologischen Patienten orientieren sich hinsichtlich der Ausgestaltung in punkto Häufigkeit, Umfang und Intensität im Allgemeinen an Bewegungs-Leitlinien für gesunde Gleichaltrige ohne chronische Erkrankungen. Eine Besonderheit bei onkologischen Patienten stellt jedoch oftmals die Berücksichtigung therapieassoziierter bzw. krankheitsbedingter Nebenwirkungen in der praktischen Umsetzung der Empfehlungen dar. Aktuelle Leitlinien sehen dafür ein aerobes Ausdauertraining an mindestens 3-5 Tagen/Woche bei einem Intensitätsspektrum moderater (150min) oder intensiver (75min) Beanspruchung (MVPA) bei 46-90% der maximalen Sauerstoffaufnahmefähigkeit vor.
Die in der Literatur beschriebenen Probleme einer Vielzahl an Verfahren zur Bestimmung der KRF und der darauf basierenden Ableitung von individualisierten Trainingsempfehlungen haben in den letzten Jahren vermehrt zu Ansätzen basierend auf der individuell physiologischen Belastungsreaktion in der Ausdauertrainingssteuerung und –bewertung geführt (Meyer et al., 2005c; Bentley et al., 2007b; Binder et al., 2008; Hofmann & Tschakert, 2011). Dabei kommen vor allem die in der sportmedizinischen Ausdauerleistungsdiagnostik etablierten Verfahren der Laktat-Leistungsdiagnostik und der spiroergometrischen Ermittlung ventilatorischer Schwellen zum Einsatz.
Kernziel der vorliegenden Arbeit war daher die Untersuchung von Leistungskennwerten an submaximalen Variablen aus Spiroergometrie und der Laktatdiagnostik im Kollektiv der onkologischen Patienten mit unterschiedlichen Krebsentitäten.
Das folgende Kapitel 2 fasst den aktuellen Forschungsstand zu Epidemiologie, Prävalenz sowie die Auswirkungen onkologischer Erkrankungen auf Aspekte der körperlichen Ausdauerleistungsfähigkeit und deren Diagnostik in der Sportmedizin zusammen. Resultierend aus dem Forschungsstand werden daraufhin Zielstellung und –fragen der vorliegenden Arbeit formuliert. Kapitel 4 umfasst die methodische Ablaufbeschreibung des Studiendesigns, die Probandenrekrutierung und -stichprobe, die eingesetzten diagnostischen Messverfahren, sowie die Darstellung der statistischen Auswertung. Nachfolgend auf die Darstellung der Ergebnisse in Kapitel 5 werden diese in Kapitel 6 vor dem Hintergrund des dargestellten Forschungstandes und aktueller relevanter Literatur diskutiert. Abschließend erfolgt eine Praxis-orientierte kritische Beleuchtung der Arbeit sowie ein eine perspektivische Einordnung der Ergebnisse mit Ausblick auf zukünftige Forschungsarbeiten.
Algorithms for the Maximum Cardinality Matching Problem which greedily add edges to the solution enjoy great popularity. We systematically study strengths and limitations of such algorithms, in particular of those which consider node degree information to select the next edge. Concentrating on nodes of small degree is a promising approach: it was shown, experimentally and analytically, that very good approximate solutions are obtained for restricted classes of random graphs. Results achieved under these idealized conditions, however, remained unsupported by statements which depend on less optimistic assumptions.
The KarpSipser algorithm and 1-2-Greedy, which is a simplified variant of the well-known MinGreedy algorithm, proceed as follows. In each step, if a node of degree one (resp. at most two) exists, then an edge incident with a minimum degree node is picked, otherwise an arbitrary edge is added to the solution.
We analyze the approximation ratio of both algorithms on graphs of degree at most D. Families of graphs are known for which the expected approximation ratio converges to 1/2 as D grows to infinity, even if randomization against the worst case is used. If randomization is not allowed, then we show the following convergence to 1/2: the 1-2-Greedy algorithm achieves approximation ratio (D-1)/(2D-3); if the graph is bipartite, then the more restricted KarpSipser algorithm achieves the even stronger factor D/(2D-2). These guarantees set both algorithms apart from other famous matching heuristics like e.g. Greedy or MRG: these algorithms depend on randomization to break the 1/2-barrier even for paths with D=2. Moreover, for any D our guarantees are strictly larger than the best known bounds on the expected performance of the randomized variants of Greedy and MRG.
To investigate whether KarpSipser or 1-2-Greedy can be refined to achieve better performance, or be simplified without loss of approximation quality, we systematically study entire classes of deterministic greedy-like algorithms for matching. Therefore we employ the adaptive priority algorithm framework by Borodin, Nielsen, and Rackoff: in each round, an adaptive priority algorithm requests one or more edges by formulating their properties---like e.g. "is incident with a node of minimum degree"---and adds the received edges to the solution. No constraints on time and space usage are imposed, hence an adaptive priority algorithm is restricted only by its nature of picking edges in a greedy-like fashion. If an adaptive priority algorithm requests edges by processing degree information, then we show that it does not surpass the performance of KarpSipser: our D/(2D-2)-guarantee for bipartite graphs is tight and KarpSipser is optimal among all such "degree-sensitive" algorithms even though it uses degree information merely to detect degree-1 nodes. Moreover, we show that if degrees of both nodes of an edge may be processed, like e.g. the Double-MinGreedy algorithm does, then the performance of KarpSipser can only be increased marginally, if at all. Of special interest is the capability of requesting edges not only by specifying the degree of a node but additionally its set of neighbors. This enables an adaptive priority algorithm to "traverse" the input graph. We show that on general degree-bounded graphs no such algorithm can beat factor (D-1)/(2D-3). Hence our bound for 1-2-Greedy is tight and this algorithm performs optimally even though it ignores neighbor information. Furthermore, we show that an adaptive priority algorithm deteriorates to approximation ratio exactly 1/2 if it does not request small degree nodes. This tremendous decline of approximation quality happens for graphs on which 1-2-Greedy and KarpSipser perform optimally, namely paths with D=2. Consequently, requesting small degree nodes is vital to beat factor 1/2.
Summarizing, our results show that 1-2-Greedy and KarpSipser stand out from known and hypothetical algorithms as an intriguing combination of both approximation quality and conceptual simplicity.
This thesis deals with the NMR characterization of the structure and the folding dynamics of DNA G quadruplexes as potential therapeutic target in cancer therapy and building block for DNA based nanotechnology.
The first part of this thesis (Chapters 1-5) introduces the reader to the world of G quadruplexes.
The main features of the classic Watson Crick double helix and alternative non B DNA structures are illustrated in Chapter 1. Many different base pairing schemes are possible, besides the canonical Watson Crick motif, thereby expanding the structural complexity of DNA. Non canonical base pairing, such as Hoogsteen hydrogen bonding, enables the assembly of triplets and quartets, which are the building blocks of triplex and quadruplex structures, respectively.
The structural characteristics of DNA G quadruplexes are delineated in detail in Chapter 2.
G quadruplex structures are extremely polymorphic, in terms of strands orientation, loops geometry, grooves width and arrangement of the glycosidic torsion angles. The various structural elements as well as the different cation coordination geometries are here presented, with a special emphasis on the diversity of conformations reported for the telomeric DNA G quadruplexes.
Chapter 3 describes the biological roles of G quadruplex structures in the genome. After introducing the architecture of the telomeric DNA and its interacting proteins, the mechanism of the telomeres elongation catalysed by the telomerase enzyme and its implications for cancer are discussed. The occurrence of G quadruplex structures in functional regions of the genome, such as promoter regions of oncogenes, and their possible roles in regulating the gene transcription are then outlined in the second part of the chapter.
The potential of G quadruplex as a novel anti cancer target is examined in Chapter 4 and the proposed anti cancer mechanisms for a ligand stabilizing G quadruplex structures are discussed.
RNA G quadruplexes and their putative role in gene regulation at the level of translation are briefly illustrated at the end of the chapter.
A general overview on the NMR methods to investigate the G quadruplex structures is presented in Chapter 5. The experimental set up used for the real time NMR studies of the G quadruplex folding is also described.
The second part of the thesis (Chapters 6-8), which is the cumulative part, comprises the original publications grouped in three Chapters according to the topic.
The state of the art on small molecules targeting G quadruplex structures is given at the beginning of Chapter 6, including a summary of the experimental structures of G quadruplexes in complex with ligands available up to date. The publications presented in Chapters 6.1-6.3 are concerned with the elucidation of the interaction modes between DNA G quadruplexes and selected ligands with potential therapeutic applications.
The binding ability of two natural alkaloids (berberine and sanguinarine) to telomeric G quadruplexes is examined in Chapter 6.1. The ability of carbazole and diguanosine derivatives (synthetized in the group of Prof. Dash, IISER, Kolkata) to interact with c-MYC G quadruplex and down regulate c-MYC expression is explored in Chapter 6.2 and Chapter 6.3, respectively.
The energy landscape of human telomeric G quadruplex structures is discussed in Chapter 7, in light of the experimental kinetic studies as well as molecular dynamics simulations reported in literature until now. Up to date there is no general consensus regarding the folding pathway of unimolecular human telomeric G quadruplex, in particular due to the lack of atomic resolution data on the species involved in the folding. Chapter 7.1 presents the first real time NMR study of the human telomeric G quadruplex folding kinetics.
The final chapter of this thesis (Chapter 8) outlines the potential of G-quadruplex structures as building blocks in nanotechnology. After illustrating briefly the additional possibilities offered by alternative non B DNA structures to programme nanomaterials, a number of applications employing G quadruplex structures in different fields of nanotechnology are described. The article presented in Chapter 8.1 investigates the structural and photoswitching properties of a novel intermolecular azobenzene containing G quadruplex synthetized in the group of Prof. Heckel (Goethe University, Frankfurt).