Refine
Year of publication
- 2016 (178) (remove)
Document Type
- Doctoral Thesis (178) (remove)
Has Fulltext
- yes (178) (remove)
Is part of the Bibliography
- no (178) (remove)
Keywords
- Anerkennung (2)
- 19F NMR shifts for fluoroarenes (1)
- AF4 (1)
- ARDS (1)
- Activity (1)
- Acylimin Sulfonylimin (1)
- Adaptation (1)
- Aedes albopictus (1)
- Aktuelle Motivation (1)
- Allergie (1)
Institute
- Biowissenschaften (38)
- Biochemie und Chemie (25)
- Physik (23)
- Medizin (17)
- Geowissenschaften (14)
- Informatik (11)
- Mathematik (9)
- Pharmazie (8)
- Biochemie, Chemie und Pharmazie (5)
- Kulturwissenschaften (5)
Interactional niche in the development of geometrical and spatial thinking in the familial context
(2016)
In the analysis of mathematics education in early childhood it is necessary to consider the familial context, which has a significant influence on development in early childhood. Many reputable international research studies emphasize that the more children experience mathematical situations in their families, the more different emerging forms of participation occur for the children that enable them to learn mathematics in the early years. In this sense mathematical activities in the familial context are cornerstones of children’s mathematical development, which is also affected by the ethnic, cultural, educational and linguistic features of their families. Germany has a population of approximately 82 million, about 7.2 million of whom are immigrants (Statisches Bundesamt 2009, pp.28-32). Children in immigrant families grow up with multiculturalism and multilingualism, therefore these children are categorized as a risk group in Germany. “Early Steps in Mathematics Learning – Family Study” (erStMaL-FaSt) is the one of the first familial studies in Germany to deal with the impact of familial socialization on mathematics learning. The study enables us to observe children from different ethnic groups with their family members in different mathematical play situations. The family study (erStMaL-FaSt) is empirically performed within the framework of the erStMaL (Early Steps in Mathematics Learning) project, which relates to the investigation of longitudinal mathematical cognitive development in preschool and early primary-school ages from a socio-constructivist perspective. This study uses two selected mathematical domains, Geometry and Measurement, and four play situations within these two mathematical domains.
My PhD study is situated in erStMaL-FaSt. Therefore, in the beginning of this first chapter, I briefly touch upon IDeA Centre and the erStMaL project and then elaborate on erStMaL-FaSt. As parts of my research concepts, I specify two themes of erStMaL-FaSt: family and play. Thereafter I elaborate upon my research interest. The aim of my study is the research and development of theoretical insights in the functioning of familial interactions for the formation of geometrical (spatial) thinking and learning of children of Turkish ethnic background. Therefore, still in Chapter 1, I present some background on the Turkish people who live in Germany and the spatial development of the children.
This study is designed as a longitudinal study and constructed from interactionist and socio-constructivist perspectives. From a socio-constructivist perspective the cognitive development of an individual is constitutively bound to the participation of this individual in a variety of social interactions. In this regard the presence of each family member provides the child with some “learning opportunities” that are embedded in the interactive process of negotiation of meaning about mathematical play. During the interaction of such various mathematical learning situations, there occur different emerging forms of participation and support. For the purpose of analysing the spatial development of a child in interaction processes in play situations with family members, various statuses of participation are constructed and theoretically described in terms of the concept of the “interactional niche in the development of mathematical thinking in the familial context” (NMT-Family) (Acar & Krummheuer, 2011), which is adapted to the special needs of familial interaction processes. The concept of the “interactional niche in the development of mathematical thinking” (NMT) consists of the “learning offerings” provided by a group or society, which are specific to their culture and are categorized as aspects of “allocation”, and of the situationally emerging performance occurring in the process of meaning negotiation, both of which are subsumed under the aspect of the “situation”, and of the individual contribution of the particular child, which constitutes the aspect of “child’s contribution” (Krummheuer 2011a, 2011b, 2012, 2014; Krummheuer & Schütte 2014). Thereby NMT-Family is constructed as a subconcept of NMT, which offers the advantage of closer analyses and comparisons between familial mathematical learning occasions in early childhood and primary school ages.
Within the scope of NMT-Family, a “mathematics learning support system” (MLSS) is an interactional system which may emerge between the child and the family members in the course of the interaction process of concrete situations in play (Krummheuer & Acar Bayraktar, 2011). All these topics are addressed in Chapter 2 as theoretical approaches and in Chapter 3 as the research method of this study. In Chapter 4 the data collection and analysis is clarified in respect of these approaches...
In Belize, which is well known for the Belize Barrier Reef and its offshore atolls, coastal lagoons are frequent morphological features along the coast. They represent transitional environments between siliciclastic and carbonate settings. In order to shed light into the Holocene evolution of coastal lagoon environments, five localities along the central coast of Belize were selected as coring sites. These include four coastal lagoons and one marsh area, namely Mantatee Lagoon, Mullins River Beach, Colson Point Lagoon, Commerce Bight Lagoon and Sapodilla Lagoon. A total of 26 sediment cores with core lengths ranging from 109 cm to 500 cm, were drilled using a Lanesky-vibracorer. Overall, 73 m of Holocene sediments and Pleistocene soil were recovered. Together with 58 radiocarbon dates the sediments reveal details on the sediment architecture and depositional features of the localities.
Marine inundation of the mainland and coastal lagoon formation started around 6 kyrs cal BP.
As a response to sea-level rise during the Holocene transgression, facies retrograded towards the coast, as seen in marginal marine overlying brackish mollusk faunas. Evidence for late Holocene progradation of facies due to sea-level stagnation is largely lacking. The occurrence of landward thinning sand beds, hiatuses and marine fauna in lagoonal successions are indications of event (overwash) sedimentation. Sediments recovered are largely of Holocene age (<7980 cal BP), overlying Pleistocene sections. Analyses of sediment composition and texture, radiocarbon dating and mollusk shell identification were used to describe and correlate sedimentary facies.
XRD analyses have identified quartz as the dominant mineral, with the Maya Mountains as main source of coastal lagoon sediments. The most common sedimentary facies include peat and peaty sediment, mud, sand, and poorly sorted sediments. Pleistocene soil forms the basement of Holocene sediments. Holocene mud represents lagoon background permanent sedimentation.
Peats and peat-rich sequences were deposited in mangrove swamp environments, whereas sandy facies mainly occur in the shoreface, beach, barriers, bars, barrier spits and overwash deposits. Facies successions could be identified for each locality, but it has proven difficult to correlate the stratigraphic sequences, especially among localities. These differences among the five locations studied suggest that apart from regional influence such as sea-level rise, local environmental factors such as small-scale variation in geomorphology and resulting facies heterogeneity, connectivity of the lagoon with the sea, antecedent topography and river discharge, were responsible for coastal sedimentation and lagoon development in the Holocene of Belize.
Faunal composition and distribution patterns of mollusk assemblages from 20 shell concentrations in cores collected in coastal lagoons, a mangrove-fringed tidal inlet and the marginal marine area (shallow subtidal) show considerable variation due to environmental heterogeneity and the interplay of several environmental factors in the course of the mid-late Holocene (ca. 6000 cal BP to modern). The investigated fauna ≥2 mm comprises 2246 bivalve, gastropod and 11 scaphopod specimens. Fifty-three mollusk species, belonging to 42 families, were identified. The bivalve Anomalocardia cuneimeris and cerithid gastropods are the dominant species and account for 78% of the total fauna. Diversity indices are low in concentrations from lagoons and relatively high in the marginal marine and tidal inlet areas.
Based on cluster analysis and nonmetric multidimensional scaling (NMDS), seven lagoonal assemblages and three marginal marine/tidal inlet assemblages were defined. A separation between lagoonal and marginal marine/tidal inlet assemblages seen in ordination indicates a lagoon-onshore gradient. The statistical separation among lagoonal assemblages demonstrates environmental changes during the Holocene evolution of the coastal lagoons, which is probably related to the formation of barriers and spits. The controlling factors of species distribution patterns are difficult to figure out, probably due to the heterogeneity of the barrier-lagoon systems and the interaction of paleoecological and paleoenvironmental factors. In addition to the taxonomic analysis, a taphonomic analysis of 1827 valves of A. cuneimeris from coastal lagoons was carried out. There is no relationship between depth and age of shells and their taphonomic condition. Size-frequency distributions and right-left valve ratios of A. cuneimeris suggest that valves were not transported over long distances but were deposited parautochthonously in their original habitat. Shells from tidal inlet and marginal marine environments were also predominantly deposited in their original habitats.
Since the Belize coast was repeatedly affected by hurricanes and the paleohurricane record for this region is poor, the sediment cores have been examined in order to identify storm deposits.
The paleohurricane record presented in this study spans the past 8000 years and exhibits three periods with increased evidences of hurricane strikes occurring at 6000-4900 cal yr BP, 4200-3600 cal yr BP and 2200-1500 cal yr BP. Two earlier events around 7100 and 7900 cal yr BP and more recent events around 180 cal yr BP and during modern times have been detected. Sand layers, redeposited corals and lagoon shell concentrations have been used as proxies for storm deposition. Additionally, hiatuses and reversed ages may indicate storm influence. While sand layers and corals represent overwash deposits, the lagoon shell concentrations, which mainly comprise the bivalve Anomalocardia cuneimeris and cerithid gastropods, have been deposited due to changes in lagoon salinity during and after storm landfalls. Comparison with other studies reveals similarities with one record from Belize, but hardly any matches with other published records. The potential for paleotempestology reconstructions of the barrier-lagoon complexes along the central Belize coast differs depending on geomorphology, and deposition of washovers in the lagoon basins is limited, probably due to the interplay of biological, geological and geomorphological processes.
Geoelektrische Methoden sind weit verbreitet und werden häufig zur Erkundung des oberflächennahen Untergrundes eingesetzt. Angewendet werden standardmäßig meist nur linienhafte Anordnungen der Sender- und Empfängerelektroden, die nur wenige Zehner Meter lang sind. Hierdurch haben diese Methoden nur geringe Eindringtiefen. Um größere Eindringtiefen und 3-dimensionale Informationen über den Untergrund zu erhalten, sind in der vorgestellten Studie die Empfänger- und Senderdipole in mehr oder weniger regelmäßigen Abständen über das Untersuchungsgebiet verteilt worden. Mit jeder Empfängerstation sind kontinuierlich die elektrischen Spannungen in bis zu drei Richtungen aufgezeichnet worden. Für die Einspeisungen wurde ein Rechtecksignal verwendet, das sich gut von den Störfrequenzen und den natürlichen Spannungen abhebt. Die Richtungen der Einspeisedipole sind entsprechend den örtlichen Gegebenheiten, jedoch möglichst parallel zu den Messrichtungen, gewählt worden. Zur Auswertung der erhobenen Messdaten wurde ein Programmpaket entwickelt, das eine weitestgehend automatisierte Auswertung der Daten erlaubt. Die Bestimmung der scheinbaren spezifischen Widerstände und ihrer Messfehler wurde an den fouriertransformierten Datenzeitreihen durchgeführt. Hierdurch konnten Störeinflüsse minimiert werden und es wurde möglich selbst stark verrauschte Datensätze auszuwerten. Um die erhobenen Daten interpretieren zu können sind die berechneten scheinbaren spezifischen Widerstände als Grundlage für Inversionen und Modellstudien verwendet worden. Die oben beschriebene Methode wurde im Rahmen der vorliegenden Arbeit in zwei unterschiedlichen Messgebieten angewandt.
Messgebiet im Hohen Vogelsberg
Im Juli 2007 wurde damit begonnen, die Forschungsbohrung Sichenhausen-Eschwald im Hohen Vogelsberg abzuteufen. Ziel war es, Informationen über den strukturellen Aufbau des größten geschlossenen Vulkankomplexes Mitteleuropas zu gewinnen. Die Gesteinsansprache der Tiefbohrung lieferte bereits relativ früh Hinweise darauf, dass ein großer magmatischer Körper aufgeschlossen wurde.Aufgrund der begrenzten räumlichen Aussagekraft der Bohrung und fehlender Geländebefunde war es nicht möglich, den Mechanismus der Platznahme und die Größe des Körpers näher zu beschreiben. Die Kampagne hatte das Ziel diese Lücke zu schließen und ein 3-dimensionales Modell des Untergrundes zu erstellen.In dem annähernd quadratischen Untersuchungsgebiet, das eine Fläche von ca. 25 $km²$ aufweist, wurden 20 Datenlogger zur Aufzeichnung der elektrischen Spannungen aufgebaut. Die Empfängerdipole waren zwischen 20 m und 30 m lang. Insgesamt wurden 36 Stromeinspeisungen mit Stromstärken zwischen 28 A und 40 A an 16 unterschiedlichen Positionen für jeweils 2 bis 3 verschiedene Dipolrichtungen vorgenommen. Die Einspeisedipole waren zwischen 100 m und 300 m lang. Insgesamt konnten 1.439 scheinbare spezifische Widerstände berechnet werden.Die Ergebnisse der Modellierungen und der Inversion der Daten zeigen, dass mit der Forschungsbohrung ein domartiger Körper angebohrt wurde. Anhand der Ergebnisse kann die räumliche Ausdehnung des Körpers eingegrenzt und ein vorher noch nicht kartierter Gang nachgewiesen werden.
Messgebiet im Bereich der Kinzigtalsperre
Das etwa Ost-West verlaufende Kinzigtal bildet die naturräumliche und geologische Grenze zwischen dem vulkanischen Vogelsberg im Norden und dem, in diesem Bereich aus Sedimentgesteinen aufgebauten, Spessart im Süden.Die zwischen Steinau a. d. Str. und Bad Soden-Salmünster befindliche Kinzigtalsperre dient dem Hochwasserschutz und der Regulierung des Pegels der Kinzig bei Dürreperioden. Der aufgestaute See ist relativ flach und weist im Normalstau maximale Tiefen von ca. 6~m auf. Der Stausee ist jedoch über weite Teile etwa 4~m tief. In dieser Kampagne betrug der Abstand zwischen den einzelnen Empfängerstationen etwa 100 m bis 300 m. Es wurde aufgrund der beengten Platzverhältnisse eine Dipollänge von ca. 48 m für die Einspeise- und die Empfängerdipole im Messgebiet gewählt. Insgesamt wurden 14 Empfängerstationen im Messgebiet aufgebaut, von denen sich Neun auf dem Seegrund befanden. Das Messraster orientierte sich am vermuteten Verlauf der Kinzigtalstörung. An 8 Positionen sind in 21 Richtungen elektrische Ströme mit Stärken zwischen 2,2 A und 40 A in den Untergrund eingespeist worden. Es konnten 536 scheinbare spezifische Widerstände berechnet werden. Ziel war es, den Verlauf der Störung näher zu bestimmen und die Tiefe der im Untergrund vorhandenen salinären Grundwässer zu bestimmen. Die Bestimmung des Verlaufs der Kinzigtalstörung sowie die Tiefenbestimmung der salinären Grundwässer war mit den erhobenen Daten jedoch nicht möglich.
The development of the atrioventricular (AV) canal and the cardiac valves is tightly linked and a critically regulated process. Anomalies in components of the involved pathways can lead to congenital valve malformations, a leading cause of morbidity and mortality in neonates. Myocardial Bmp as well as endocardial Notch and Wnt signaling have been identified as critical factors for the induction of EMT during the formation of the endocardial cushions and cardiac valves. Of these, canonical Wnt signaling positively regulates endocardial proliferation and EMT but negatively regulates endocardial differentiation. Further, elevated Wnt signaling leads to the ectopic expression of myocardial Bmp ligands suggesting a high level of integration of the involved pathways and crosstalk amongst the different cardiac tissues.
Here we have identified a novel role for Id4 as a mediator between Bmp and Wnt signaling. Id4 belongs to the Id family of proteins and is known to be involved in bone and nervous system development. We found that in zebrafish, id4 is expressed in the endocardium of the AV canal at embryonic stages and throughout the atrial chamber in addition to AV canal, in adults. Using transcription activator-like effector nucleases (TALENs) we established an id4 mutant allele. Our analysis shows that id4 mutant larvae are susceptible to retrograde blood flow, and show aberrant expression of developmental valvular markers. These include expanded expression domains of markers like bmp4, cspg2a and Alcam. In contrast, valve maturation as assessed by the expression of spp1 is considerably reduced in id4 mutants. Using conditional transgenic systems, along with elegant in vivo imaging of transgenic reporter lines, we further found that id4 is a transcriptional target of Bmp signaling, and it is capable of dose dependently restricting Wnt signaling in the endocardium of the Atrioventricular Canal.
Taken together, our data identifies Id4 as a novel player in Atrioventricular Canal and valve development. We show that Id4 function is important in valve development acting downstream of Bmp signaling by restricting endocardial Wnt to allow valve maturation
Nearly 170 million people are chronically infected with HCV and thus at risk of developing liver cirrhosis and hepatocellular carcinoma. Although new and effective oral antiviral drugs are available, there is still the need for a preventive vaccine. In addition, in light of the high number of patients who are chronically infected with HCV the development of a therapeutic vaccine will present a support or even an alternative to the expensive medications.
To induce HCV-specific immune responses in a vaccine model, the HBV capsid is used as a carrier to deliver HCV antigens. Due to its icosahedral structure, the HBV capsid is highly immunogenic and helps to elicit a strong B cell response against the delivered antigens. In addition, the translocation motif (TLM) from the HBV surface protein is fused to the core protein. The TLM conveys membrane-permeability to the carrier capsid, enabling antigen transfer into the cytoplasm, and thus allows immunoproteasomal processing and MHC class I-mediated presentation of the antigen. To load the capsid with foreign antigens, a strep-Tag/streptavidin system is utilized. Recombinant capsids and antigens were purified from the E. coli production system. Detailed characterization of the carrier capsid demonstrated the proper assembly, adequate thermal stability and the successful loading of the foreign antigens onto the capsid surface.
As a further step, seven different HCV-derived proteins were produced and purified for the coupling on the surface of TLM-core particles. The characterization of their immunogenicity using this system is being performed.
Using ovalbumin as a model antigen, which is coupled to the carrier capsids via strep-Tag/streptavidin binding, shows that this system is suitable to efficiently deliver antigens into the cytoplasm of antigen-presenting cells (APCs), leading to the activation of APCs. This activation was assessed by measuring the secretion of IL-6 and TNF-α, in addition to the upregulation of activation markers (CD40, CD80, CD69, and MHC class I). Upon activation, the APCs were able to activate ova-specific CD8+ T cells measured by secreted IFN-γ, which was up to 20-folds more than IFN-γ secreted upon incubation with free ovalbumin. These data indicate that the TLM-capsid is suitable to serve as a carrier to deliver foreign antigens into the cytoplasm of APCs leading to MHC class I-mediated presentation and induction of an antigen-specific CTLs response.
Übergewicht und Adipositas im Kindesalter werden als gesellschaftliches Problem diskutiert. Dem Sportunterricht kommt im Umgang mit den Betroffenen eine besondere Bedeutung und Verantwortung zu. In der vorliegenden Forschungsarbeit wird die Annahme vertreten, dass der Sportunterricht seinem Auftrag nur dann gerecht werden kann, wenn es gelingt, dass auch die übergewichtigen und adipösen Kinder positive Anerkennungserfahrungen im Feld von Bewegung, Spiel und Sport sammeln können. Das Konstrukt der Anerkennung impliziert zwei Ebenen, die sich gegenseitig beeinflussen: Auf personaler Ebene bezieht sich das Streben nach Anerkennung auf den Selbstwert (sozialpsychologische Perspektive) und auf sozialer Ebene auf den Wunsch nach Anerkennung durch die Mitglieder der Gruppen, denen man angehört (soziologische Perspektive). Die vorliegende Untersuchung befasst sich mit den Anerkennungserfahrungen übergewichtiger (n = 105) und adipöser Kinder (n = 48) im Vergleich zu ihren normalgewichtigen Mitschülerinnen und Mitschülern (n = 447) als wesentlicher Indikator für freudvolle Teilnahme im schulischen Sportunterricht. Operationalisiert werden die Anerkennungsverhältnisse auf sozialer Ebene über das Maß der erhaltenen sozio-emotionalen Anerkennung der Betroffenen mit Hilfe soziometrischer Verfahren und auf personaler Ebene über die sportliche Selbstwahrnehmung mit Hilfe eines konzipierten und validierten Körperkonzept-Fragebogens. Zur Berechnung der Ergebnisse wird ein verteilungsfreies Verfahren – der Kruskal-Wallis-Test – eingesetzt. Die Ergebnisse legen insgesamt einige Unterschiede der Anerkennungsverhältnisse in Abhängigkeit vom Körpergewichtsstatus dar: Die soziometrische Analyse zeigt, dass das Ausmaß des Körpergewichts für die Wahl der Spielgefährten im Sportunterricht eine Rolle spielt (p = .002). Während normal- und übergewichtige Schülerinnen und Schüler sich in den erhaltenen Wahlen nicht statistisch relevant unterscheiden, sind die adipösen signifikant weniger anerkannt. Als besondere Risikogruppe stellen sich adipöse Mädchen mit Migrationshintergrund heraus (p = .010). Hinsichtlich des Körperkonzepts zeigen sich signifikante Unterschiede in der „Selbsteinschätzung der allgemeinen Sportlichkeit“ zugunsten der normalgewichtigen Kinder (p = .000). Im Faktor „Selbsteinschätzung der konditionellen Fähigkeit Kraft“ schätzen sich die Kinder mit dem höchsten Körpergewichtsstatus am positivsten ein (p = .004). Keinen Unterschied in Abhängigkeit vom Körpergewichtsstatus zeigt sich in der „Selbstakzeptanz der äußeren Erscheinung“ (p = .751).
Es bleibt festzuhalten, dass die übergewichtigen Kinder weitgehend diskriminierungsfrei am Sportunterricht teilnehmen, ihre Sportlichkeit realistisch einschätzen und mit ihrem Äußeren zufrieden sind. Eine ähnliche Selbsteinschätzung weisen die adipösen Kinder vor, jedoch ergibt sich auf dem extrem erhöhten Körpergewichtsstatus ein soziales Problem, dem aus pädagogischer Sicht entgegen zu wirken ist.
In der Experimentierhalle der Physik am Campus Riedberg der Goethe – Universität wird gegenwärtig die Beschleunigeranlage FRANZ aufgebaut. FRANZ steht für Frankfurter Neutronenquelle am Stern-Gerlach-Zentrum. Die Anlage bietet vielfältige Experimentiermöglichkeiten in der Untersuchung intensiver, gepulster Protonenstrahlen. Ein Forschungsschwerpunkt an den sekundären Neutronenstrahlen sind Messungen zur nuklearen
Astrophysik. Die Neutronen werden durch einen 2 MeV Protonenstrahl mittels der Reaktion 7Li (p, n) 7Be erzeugt. Die geplanten Experimente erfordern sowohl eine hier weltweit erstmals realisierte Pulsrepetitionsrate von bis zu 250 kHz bei Pulsströmen im 100 mA – Bereich als auch eine extreme Pulskompression auf eine Nanosekunde bei dann auftretenden Pulsströmen im Ampere – Bereich. Daneben ist auch ein Dauerstrich – Strahlbetrieb im mA – Strombereich möglich. Auch viele einzelne Beschleunigerkomponenten wie die Ionenquelle, der Chopper zur Pulsformung, die hochfrequent gekoppelte RFQ-IH-Kombination, der Rebuncher in Form einer CH – Struktur und der Bunchkompressor sind Neuentwicklungen. Mittlere Strahlleistungen von bis zu 24 kW treten im Niederenergiestrahltransportbereich auf, da die Ionenquelle grundsätzlich im Dauerstrich zu betreiben ist, auch bei Hochstrom mit hohen Pulsrepetitionsraten. Der Personen- und Geräteschutz spielt damit auch eine wesentliche Rolle bei der Auslegung des Kontrollsystems für FRANZ. Der Aufbau von FRANZ und seine wesentlichen Komponenten werden in Kapitel 2 erläutert. Die vielen unterschiedlichen Komponenten wie Hochspannungsbereich, Magneten, Hochfrequenzbauteile und Kavitäten, Vakuumbauteile, Strahldiagnose und Detektoren machen plausibel, dass auch das Kontrollsystem für eine solche Anlage speziell ausgelegt werden muss. In Kapitel 4 werden zum Vergleich die Konzepte zur Steuerung und Regelung aktueller, großer Beschleunigerprojekte aufgezeigt, nämlich für die „European Spallation Source ESS“ und für die „Facility for Antiproton and Ion Research FAIR“. In der vorliegenden Arbeit wurde die Ionenquelle als komplexe Beschleunigerkomponente ausgewählt, um Entwicklungen zur Steuerung und Regelung durchzuführen und zu testen. Zum Anfahren und Betreiben der Ionenquelle wurde ein Flussdiagramm (Abb. 5.15) entwickelt und realisiert. Im Detail wurden Untersuchungen zur Abhängigkeit der Heizkathodenparameter von der Betriebsdauer gemacht. Daraus konnte ein Algorithmus zur Vorhersage eines rechtzeitigen Filamentaustausches abgeleitet werden. Weiterhin konnte die Nachregelung des Kathodenheizstromes automatisiert werden, um damit die Bogenentladungsspannung innerhalb eines Intervalls von ± 0.5 V zu stabilisieren. Das Anfahren des Filamentstroms wurde ebenfalls automatisiert. Dazu wird die Vakuumdruckänderung in Abhängigkeit der Filamentstromerhöhung gemessen, ausgewertet und daraus der nächste erlaubte Stromerhöhungsschritt abgeleitet. Auf diese Weise wird der Betriebszustand schneller und kontrollierter erreicht als bei manuellem Hochfahren. Das Ziel eines unbemannten Ionenquellenbetriebs ist damit näher gerückt. In einem ersten Test zur Komponentensteuerung und zur Datenaufnahme wurde ein Ionenstrahl extrahiert und durch den ersten Fokussierungsmagneten – einen Solenoiden – transportiert. Es wurde der Erregungsstrom des Solenoiden sowie die Strahlenergie automatisch durchgefahren, die Daten abgespeichert und daraus ein Kontourplot zum gemessenen Strahlstrom hinter der Fokussierlinse erstellt (Abb. 5). Die vorliegende Arbeit beschäftigt sich nur mit den „langsamen“ Steuerungs- und Regelungsprozessen, während die schnellen Prozesse im Hochfrequenzregelungssystem unabhängig geregelt werden. Neben der Überwachung des Betriebszustandes aller Komponenten werden auch alle für den Service und die Personensicherheit benötigten Daten weggeschrieben. Das System basiert auf MNDACS (Mesh Networked Data Acquisition and Control System) und ist in JAVA geschrieben. MNDACS besteht aus einem Kernel, welcher die Komponententreiber-Software sowie den Netzwerkserver und das graphische Netzwerkinterface (GUI) betreibt. Weterhin gehört dazu das Driver Abstraction Layer (DAL), welches den Zugang zu weiteren Computern oder zu lokalen Treibern ermöglicht. CORBA stellt die Middleware für Netzwerkkommunikation dar. Dadurch wird Kommunikation mit externer Software geregelt, weiterhin wird die Umlegung von Kommunikation im Fall von Leitungsunterbrechungen oder einem lokalen Computerabsturz festgelegt. Es gibt bei FRANZ zwei Kontrollebenen: Über Ethernet läuft die „High Level Control“ und die Datenverarbeitung. Über die „Low Level Control“ läuft das Interlock – und Sicherheitssystem. Die Netzwerkverbindungen laufen über 1 Gb Ethernet Links, womit ein schneller Austausch auch bei lokalen Netzwerkstörungen noch möglich ist. Um bei Stromausfällen das Computersystem am Laufen zu halten, wurde im Rahmen dieser Arbeit ein „Uninterruptable Power Supply“ UPS beschafft und erfolgreich am Hochspannungsterminal getestet.
One of the main things that we as humans do in our lifetime is the recognition and/or classification of all kind of visual objects. It is known that about fifty percentage of the neocortex is responsible for visual processing. This fact tells us that object recognition (OR) is a complex task in our and in the animal brain, but we do it in a fraction of a second.
The main question is: How does the brain exactly do it? Does the brain use some feature extraction algorithm for OR tasks? The hierarchical structure of the visual cortex and studies on a part of the visual cortex called V1 tell us that our brain uses feature extraction for OR tasks by Gabor filters. We also use our previous knowledge in object recognition to detect and recognize the objects which we never saw before. Also, as we grow up we learn new objects faster than before.
These facts imply that the visual cortex of human and other animals uses some common (universal) features at least in the first stages to distinguish between different objects. In this context, we might ask: Do universal features in images exist, such that by using them we are able to efficiently recognize any unknown object? Is it necessary to extract new special features for any new object? How about using existing features from other tasks for this? Is it possible to efficiently use extracted feature of a specific task for other tasks? Are there some general features in natural and non-natural images which can also be used for specific object recognition? For example, can we use extracted features of natural images also for handwritten digit classification?
In this context, our work proposes a new information-based approach and tries to give some answers to the questions above. As a result, in our case we found that we could indeed extract unique features which are valid in all three different kinds of tasks. They give classification results that are about as good as the results reported by the corresponding literature for the specialized systems, or even better ones.
Another problem of the OR task is the recognition of objects, independently of any perception changes. We as humans or also animals can recognize objects in spite of many deformations (e.g. changes in illumination, rotation in any direction or angles, distortion and scaling up or down) in a fraction of a second. When observing an object which we never saw, we can imagine the rotated or scaled up objectin our mind. Here, also the question arises: How does the brain solve this problem? To do this, does the brain learn some mapping algorithm (transformation), independent of the objects or their features?
There are many approaches to model the mapping task. One of the most versatile ones is the idea of dynamically changing mappings, the dynamic link mapping (DLM). Although the dynamic link mapping systems show interesting results, the DLM system has the problem of a high computational complexity. In addition, because it uses the least mean squared error as risk function, the performance for classification is also not optimal. For random values where outliers are present, this system may not work well because outliers influence the mean squared error classification much more than probability-based systems. Therefore, we would like to complete the DLM system by a modified approach.
In our contribution, we will introduce a new system which employs the information criteria (i.e. probabilities) to overcome the outlier problem of the DLM systems and has a smaller computational complexity. The new information based selforganised system can solve the problem of invariant object recognition, especially in the task of rotation in depth, and does not have the disadvantage of current DLM systems and has a smaller computational complexity.
Eine möglichst realistische Abschätzung von Strahlenschäden ist von entscheidender Bedeutung im Strahlenschutz und für die Strahlentherapie. Die primären Strahlenschäden an der DNS werden heute mit Monte-Carlo-Codes berechnet. Diese Codes benötigen möglichst genaue Fragmentierungsquerschnitte verschiedenster biomolekularer Systeme als Eingangsparameter. Im Rahmen der vorliegenden Arbeit wurde ein Experiment aufgebaut, welches die Bestimmung der Fragmentierungsquerschnitte von Biomolekülen ermöglicht. Die einzelnen Baugruppen des Aufbaus wurden vor dem Beginn des Experimentes bezüglich ihrer Eigenschaften, die die Genauigkeit der Messergebnisse beeinflussen können, charakterisiert. Die Resultate dieser Experimente werden als Eingangsdaten für die Berechnung von primären strahleninduzierten Schäden in der DNS mit Hilfe von Monte-Carlo-Codes eingesetzt.
Eine besondere Herausforderung stellte die Präparation eines Überschallgasstrahls für biomolekulare Substanzen dar. Für die Präparation müssen die Targetsubstanzen zunächst in die Gasphase überführt werden. Im Falle von Biomolekülen ist diese Überführung auf Grund ihrer niedrigen Dampfdrücke bei Raumtemperatur und chemischen Reaktivität mit technischen Problemen verbunden. Die Probleme wurden mittels einer speziellen Konstruktion der Präparationseinrichtung, welche eine direkte Einleitung der Probensubstanzen in die vom Trägergas durchströmte Mischkammer ermöglicht, gelöst. Für die Genauigkeit der gemessenen Fragmentierungsquerschnitte spielen mehrere Faktoren eine Rolle. Neben dem Bewegungsprofil des Überschallgasstrahls, den kinetischen Energien der Fragmentionen und den ionenoptischen Eigenschaften des Flugzeitspektrometers beeinflusst die geometrische Beschaffenheit der Detektionszone maßgeblich die Genauigkeit des Experimentes. Die Position und Ausdehnung des sichtbaren Volumens sind nicht nur durch den Überlappungsbereich zwischen dem Elektronen- und dem Überschallgasstrahl bestimmt, sondern hängen auch von der kinetischen Energie der Fragmente ab. Für dessen Ermittlung wurden daher auch die Trajektorien der Fragmente simuliert. Bei den Experimenten an der PTB-Apparatur ist die frei wählbare Zeitdifferenz zwischen dem Auslösen eines Elektronenpulses und dem Absaugen der Fragmentionen ein wichtiger Messparameter. Ihr Einfluss auf die Messergebnisse wurde ebenfalls neben der Nachweiswahrscheinlichkeit des verwendeten Ionendetektors untersucht. Die Kalibrierung der Flugzeitspektren, d. h. die Umwandlung der Flugzeitspektren in Massenspektren erfolgte anhand der bekannten Flugzeitspektren von Edelgasen und Wasserstoff.
Nach der Charakterisierung der Einflussfaktoren und Kalibrierung der Flugzeitspektren wurden die energieabhängigen Fragmentierungsquerschnitte für Elektronenstoß von mehreren organischen Molekülen, darunter die von Modellmolekülen für die DNS-Bausteine gemessen. Die Flugzeitspektren von THF wurden mit der PTB-Apparatur für einige kinetische Energien der Elektronen in Abhängigkeit von der Zeitdifferenz zwischen dem Auslösen des Elektronenpulses und dem Starten der Analyse durchgeführt. Messungen von Pyrimidin wurden sowohl an der PTB-Apparatur als auch mit COLTRIMS durchgeführt. Die mit COLTRIMS gewonnenen Ergebnisse liefern wichtige Zusatzinformationen über die Fragmentierungsprozesse. COLTRIMS ermöglicht die Messung der zeitlichen Korrelationen zwischen den auftretenden Fragmentionen und damit tiefere Einblicke in die bei der Entstehung der Fragmente beteiligten Reaktionskanäle. Der Vorteil der PTB-Apparatur besteht darin, dass die relativen Auftrittswahrscheinlichkeiten aller Fragmentionen genauer bestimmt werden können.
Random ordinary differential equations (RODEs) are ordinary differential equations (ODEs) which have a stochastic process in their vector field functions. RODEs have been used in a wide range of applications such as biology, medicine, population dynamics and engineering and play an important role in the theory of random dynamical systems, however, they have been long overshadowed by stochastic differential equations.
Typically, the driving stochastic process has at most Hoelder continuous sample paths and the resulting vector field is, thus, at most Hoelder continuous in time, no matter how smooth the vector function is in its original variables, so the sample paths of the solution are certainly continuously differentiable, but their derivatives are at most Hoelder continuous in time. Consequently, although the classical numerical schemes for ODEs can be applied pathwise to RODEs, they do not achieve their traditional orders.
Recently, Gruene and Kloeden derived the explicit averaged Euler scheme by taking the average of the noise within the vector field. In addition, new forms of higher order Taylor-like schemes for RODEs are derived systematically by Jentzen and Kloeden.
However, it is still important to build higher order numerical schemes and computationally less expensive schemes as well as numerically stable schemes and this is the motivation of this thesis. The schemes by Gruene and Kloeden and Jentzen and Kloeden are very general, so RODEs with special structure, i.e., RODEs with Ito noise and RODEs with affine structure, are focused and numerical schemes which exploit these special structures are investigated.
The developed numerical schemes are applied to several mathematical models in biology and medicine. In order to see the performance of the numerical schemes, trajectories of solutions are illustrated. In addition, the error vs. step sizes as well as the computational costs are compared among newly developed schemes and the schemes in literature.